econometria ii - uniasselvi

221
2019 1 a Edição ECONOMETRIA II Prof. Vanderlei Kleinschmidt

Upload: others

Post on 31-Oct-2021

14 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: EconomEtria ii - UNIASSELVI

2019

1a Edição

EconomEtria iiProf. Vanderlei Kleinschmidt

Page 2: EconomEtria ii - UNIASSELVI

Copyright © UNIASSELVI 2019

Elaboração:

Prof. Vanderlei Kleinschmidt

Revisão, Diagramação e Produção:

Centro Universitário Leonardo da Vinci – UNIASSELVI

Ficha catalográfica elaborada na fonte pela Biblioteca Dante Alighieri

UNIASSELVI – Indaial.

Impresso por:

K64e

Kleinschmidt, Vanderlei

Econometria II. / Vanderlei Kleinschmidt. – Indaial: UNIASSELVI, 2019.

213 p.; il.

ISBN 978-85-515-0308-9

1. Econometria. - Brasil. II. Centro Universitário Leonardo Da Vinci.

CDD 330.015195

Page 3: EconomEtria ii - UNIASSELVI

III

aprEsEntação

Prezado acadêmico, a econometria clássica pode ser dividida em duas vertentes. A primeira delas, que você teve a oportunidade de estudar em Econometria 1, encarrega-se dos assuntos relacionados à microeconometria. A segunda, que é tema das Unidades 1 e 2 desse livro didático, refere-se aos temas macroeconométricos.

Você deve lembrar da Econometria 1 que o estudo econométrico é cumulativo, no sentido de que tudo aquilo que você aprendeu antes, continuará valendo para os novos temas a serem estudados. Assim, conceitos como variável dependente e explicativa, significância estatística, entre outros, continuarão a aparecer no texto que está a nossa disposição nessa fase de estudos.

Ao elaborar esse material, tivemos o cuidado para que você pudesse ter acesso a um conteúdo moderno e principalmente prático, em linha com o que é necessário saber sobre cada tema abordado em Econometria 2. Mesmo que alguns assuntos necessitem de mais aprofundamento, o que você encontrará a seguir é suficiente para lhe garantir o entendimento sobre cada tema abordado.

Para isso, estruturamos a disciplina em três unidades. Na Unidade 1 nos preocuparemos em estudar as séries temporais, os principais conceitos relacionados a esse tipo muito especial de dados. Aqui queremos entender os fatores determinantes do comportamento das variáveis macroeconômicas ao longo do tempo, seus fatores impulsionadores, ou que afetam a sua trajetória. Você aprenderá novos conceitos, novas expressões e se familiarizará com técnicas mais recentes, muito empregadas por formuladores de políticas econômicas.

Na Unidade 2 abordamos os aspectos dinâmicos de alguns modelos econométricos, à luz da teoria das expectativas. Além disso, veremos como resolver e utilizar os sistemas de equações simultâneas para estudar modelos econométricos formados por mais de uma equação, e, portanto, mais de uma variável dependente. Essa unidade é finalizada com a análise da precedência na econometria, tendo como principal técnica a causalidade no sentido de Granger.

A última unidade traz na primeira parte os modelos painel, juntando os dados de corte, que vimos em Econometria 1 e os dados de séries temporais, que estudamos até então em Econometria 2. Na segunda parte veremos modelos cuja variável dependente é uma dummy, ou seja, uma variável que tem apenas dois valores possíveis, zero ou um. Na Econometria 1 essa variável estava do lado direito do sinal de igualdade, como uma variável explicativa. Agora a deslocamos para o lado esquerdo, funcionando como uma variável explicativa.

Page 4: EconomEtria ii - UNIASSELVI

IV

Você já me conhece das outras disciplinas? Não? É calouro? Enfim, tanto para você que está chegando agora à UNIASSELVI quanto para você que já é veterano, há novidades em nosso material.

Na Educação a Distância, o livro impresso, entregue a todos os acadêmicos desde 2005, é o material base da disciplina. A partir de 2017, nossos livros estão de visual novo, com um formato mais prático, que cabe na bolsa e facilita a leitura.

O conteúdo continua na íntegra, mas a estrutura interna foi aperfeiçoada com nova diagramação no texto, aproveitando ao máximo o espaço da página, o que também contribui para diminuir a extração de árvores para produção de folhas de papel, por exemplo.

Assim, a UNIASSELVI, preocupando-se com o impacto de nossas ações sobre o ambiente, apresenta também este livro no formato digital. Assim, você, acadêmico, tem a possibilidade de estudá-lo com versatilidade nas telas do celular, tablet ou computador. Eu mesmo, UNI, ganhei um novo layout, você me verá frequentemente e surgirei para apresentar dicas de vídeos e outras fontes de conhecimento que complementam o assunto em questão.

Todos esses ajustes foram pensados a partir de relatos que recebemos nas pesquisas institucionais sobre os materiais impressos, para que você, nossa maior prioridade, possa continuar seus estudos com um material de qualidade.

Aproveito o momento para convidá-lo para um bate-papo sobre o Exame Nacional de Desempenho de Estudantes – ENADE. Bons estudos!

NOTA

Encerramos os estudos de Econometria 2 analisando os temas que estão na vanguarda do estudo econométrico. Primeiramente uma técnica avançada de estimação, o método de máxima verossimilhança. Depois, veremos um pouco sobre a econometria bayesiana, que é uma abordagem controversa, mas que está na moda atualmente entre os econometristas aplicados. E finalmente, teremos uma breve introdução ao Big Data Analytics, que é uma área de atuação para os economistas que conseguem desenvolver a competência da econometria e outras em paralelo, como por exemplo a programação direcionada a objetos.

Não encare essa matéria como mais uma a ser aprovado no curso de ciências econômicas. Procure encará-la como uma competência a ser adquirida e desenvolvida por você. Dedique-se aos estudos da econometria e você terá um grande diferencial no seu currículo, frente aos demais profissionais que não tiveram o privilégio de estudar o que você verá nessa disciplina.

Bons estudos!Prof. Vanderlei Kleinschmidt

Page 5: EconomEtria ii - UNIASSELVI

V

Olá acadêmico! Para melhorar a qualidade dos materiais ofertados a você e dinamizar ainda mais os seus estudos, a Uniasselvi disponibiliza materiais que possuem o código QR Code, que é um código que permite que você acesse um conteúdo interativo relacionado ao tema que você está estudando. Para utilizar essa ferramenta, acesse as lojas de aplicativos e baixe um leitor de QR Code. Depois, é só aproveitar mais essa facilidade para aprimorar seus estudos!

UNI

Page 6: EconomEtria ii - UNIASSELVI

VI

Page 7: EconomEtria ii - UNIASSELVI

VII

UNIDADE 1 – ECONOMETRIA DE SÉRIES TEMPORAIS .............................................................1

TÓPICO 1 – CONCEITOS PRELIMINARES .......................................................................................31 INTRODUÇÃO .......................................................................................................................................32 ALGUNS CONCEITOS RELATIVOS ÀS SÉRIES TEMPORAIS .................................................33 ESTACIONARIEDADE E NÃO ESTACIONARIEDADE, RUÍDO BRANCO E ERGODICIDADE ................................................................................................................................. 104 PASSEIO ALEATÓRIO E TENDÊNCIA .......................................................................................... 145 PROCESSOS INTEGRADOS, RAIZ UNITÁRIA E REGRESSÃO ESPÚRIA ......................... 19RESUMO DO TÓPICO 1........................................................................................................................ 24AUTOATIVIDADE ................................................................................................................................. 25

TÓPICO 2 – ANÁLISE UNIVARIADA ............................................................................................... 271 INTRODUÇÃO ..................................................................................................................................... 272 PROCESSOS ESTOCÁSTICOS ......................................................................................................... 273 PROCESSOS AUTOREGRESSIVOS (AR) ...................................................................................... 394 PROCESSOS DE MÉDIAS MÓVEIS (MA) ..................................................................................... 415 PROCESSOS AUTOREGRESSIVOS E DE MÉDIAS MÓVEIS (ARMA) ................................. 426 APLICAÇÃO DO MÉTODO BOX, JENKINS E REINSEL (2008) PARA IDENTIFICAÇÃO DO PROCESSO ARMA(p,q) ............................................................................................................... 44RESUMO DO TÓPICO 2........................................................................................................................ 56AUTOATIVIDADE ................................................................................................................................. 57

TÓPICO 3 – ANÁLISE MULTIVARIADA .......................................................................................... 611 INTRODUÇÃO ..................................................................................................................................... 612 COINTEGRAÇÃO ................................................................................................................................ 613 VETOR AUTOREGRESSIVO (VAR) ................................................................................................ 754 VETOR DE CORREÇÃO DE ERROS (VECM) ............................................................................... 84LEITURA COMPLEMENTAR ............................................................................................................... 85RESUMO DO TÓPICO 3........................................................................................................................ 88AUTOATIVIDADE ................................................................................................................................. 89

UNIDADE 2 – MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS .................................................................................... 91

TÓPICO 1 – MODELOS ECONOMÉTRICOS DINÂMICOS ........................................................ 931 INTRODUÇÃO ..................................................................................................................................... 932 MODELOS COM DEFASAGENS DISTRIBUÍDAS...................................................................... 943 MODELOS AUTORREGRESSIVOS ................................................................................................ 97RESUMO DO TÓPICO 1......................................................................................................................106AUTOATIVIDADE ...............................................................................................................................107

sumário

Page 8: EconomEtria ii - UNIASSELVI

VIII

TÓPICO 2 – MODELOS DE EQUAÇÕES SIMULTÂNEAS ........................................................1091 INTRODUÇÃO ...................................................................................................................................1092 OS MODELOS DE EQUAÇÕES SIMULTÂNEAS ......................................................................1093 A IDENTIFICAÇÃO ...........................................................................................................................1104 A ESTIMAÇÃO ...................................................................................................................................116RESUMO DO TÓPICO 2......................................................................................................................123AUTOATIVIDADE ...............................................................................................................................124

TÓPICO 3 – PRECEDÊNCIA EM ECONOMIA ..............................................................................1251 INTRODUÇÃO ...................................................................................................................................1252 CAUSALIDADE DE GRANGER .....................................................................................................1263 ESTIMAÇÃO BASEADA EM SIMULAÇÃO ...............................................................................134LEITURA COMPLEMENTAR .............................................................................................................141RESUMO DO TÓPICO 3......................................................................................................................143AUTOATIVIDADE ...............................................................................................................................144

UNIDADE 3 – MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA ......................147

TÓPICO 1 – MODELOS PAINEL .......................................................................................................1491 INTRODUÇÃO ...................................................................................................................................1492 MODELOS COM DADOS EMPILHADOS ..................................................................................1523 MODELOS DE EFEITOS FIXOS .....................................................................................................1584 MODELOS DE EFEITOS ALEATÓRIOS .......................................................................................163RESUMO DO TÓPICO 1......................................................................................................................171AUTOATIVIDADE ...............................................................................................................................172

TÓPICO 2 – MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA ...........................1751 INTRODUÇÃO ...................................................................................................................................1752 O MODELO DE PROBABILIDADE LINEAR ..............................................................................1763 O MODELO LOGIT ...........................................................................................................................1824 O MODELO PROBIT .........................................................................................................................187RESUMO DO TÓPICO 2......................................................................................................................193AUTOATIVIDADE ...............................................................................................................................194

TÓPICO 3 – TÓPICOS ESPECIAIS EM ECONOMETRIA ...........................................................1971 INTRODUÇÃO ...................................................................................................................................1972 A ESTIMAÇÃO POR MÁXIMA VEROSSIMILHANÇA ...........................................................1983 ECONOMETRIA BAYESIANA ........................................................................................................1994 BIG DATA ANALYTICS ....................................................................................................................201LEITURA COMPLEMENTAR .............................................................................................................206RESUMO DO TÓPICO 3......................................................................................................................208AUTOATIVIDADE ...............................................................................................................................209

REFERÊNCIAS .......................................................................................................................................211

Page 9: EconomEtria ii - UNIASSELVI

1

UNIDADE 1

ECONOMETRIA DE SÉRIES TEMPORAIS

OBJETIVOS DE APRENDIZAGEM

PLANO DE ESTUDOS

A partir do estudo desta unidade, você será capaz de:

• diferenciar série temporal estacionária de não estacionária;

• compreender os fatos estilizados do comportamento das séries temporais;

• conhecer a natureza dos modelos de séries temporais;

• mostrar como esses modelos caracterizam a estrutura estocástica do processo subjacente que gerou uma série particular;

• construir, estimar e interpretar modelos de regressão que utilizam dados de séries temporais.

Esta unidade está dividida em três tópicos. No decorrer da unidade você encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – CONCEITOS PRELIMINARES

TÓPICO 2 – ANÁLISE UNIVARIADA

TÓPICO 3 – ANÁLISE MULTIVARIADA

Page 10: EconomEtria ii - UNIASSELVI

2

Page 11: EconomEtria ii - UNIASSELVI

3

TÓPICO 1UNIDADE 1

CONCEITOS PRELIMINARES

1 INTRODUÇÃO

A econometria de séries temporais aborda o estudo da macroeconometria. Seria possível dedicar uma disciplina inteira para estudar esse ramo da econometria e ainda assim não esgotaríamos todas as possibilidades.

Pensando nisso, nessa primeira unidade, trabalhamos exclusivamente com séries temporais, buscando dar uma visão geral, sem um aprofundamento técnico excessivo, mas com aplicações práticas suficientes de tal forma que você possa compreender de forma intuitiva as novas técnicas e competências que deverá desenvolver a partir de agora.

Nesse primeiro tópico faremos uma breve introdução à econometria das séries temporais, desenvolvendo um vocabulário diferente do que estávamos habituados a ver em Econometria 1. Falaremos sobre os componentes das séries temporais, definiremos o processo estacionário, diferenciando do processo não estacionário.

Veremos que o processo gerador de uma série particular pode ser um passeio aleatório, ou um processo integrado, cuja definição será útil na sequência dessa unidade, assim como a definição de raiz unitária, característica presente em muitas séries de dados. E, finalmente, compreenderemos o sentido de regressão espúria ou resultado espúrio, que tem origem na combinação de séries temporais que não demos o devido tratamento estatístico, removendo os componentes que alteram a trajetória das séries ao longo do tempo.

2 ALGUNS CONCEITOS RELATIVOS ÀS SÉRIES TEMPORAIS

Os economistas estão sempre interessados em entender o comportamento de algumas variáveis tais como as vendas do comércio varejista, a safra agrícola, o preço dos combustíveis, o preço das ações, as taxas de juros, a inflação, a volatilidade da taxa de câmbio, entre outras tantas. Podemos tomar qualquer uma dessas variáveis, coletar os seus valores e agrupá-los em um banco de dados listando em frequência intradiária, diária, mensal, trimestral, anual etc.

Page 12: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

4

Após construir o banco de dados, estaremos interessados em visualizar a trajetória das séries ao longo do tempo, através de um gráfico simples, como o gráfico a seguir. Nele podemos ver a venda de fertilizantes no Brasil, de janeiro de 1998 até novembro de 2017. Percebam o seu comportamento nesse período, notem que, em determinados momentos, as vendas são mais altas e em outros elas são bem menores. Percebam o padrão e vejam que, apesar de subir e descer com frequência, há uma clara tendência de alta nessa série.

GRÁFICO 1 – VENDA DE FERTILIZANTES NO BRASIL, EM TONELADAS,JAN/1998 A NOV/2017

FONTE: <www.ipeadata.gov.br>. Acesso em: 9 abr. 2019.

Esse gráfico mostra dois dos principais componentes de uma série temporal, a sazonalidade e a tendência. A sazonalidade é fácil de identificar, refere-se ao padrão que se repete periodicamente dentro de cada ano, com movimentos de baixa acentuada nos meses de março e abril e de alta expressiva nos meses de setembro e outubro.

A outra componente é a tendência, que é perceptível visualmente mostrando a trajetória ascendente da série. Obviamente a tendência não tem um comportamento exclusivamente ascendente, ela pode ser decrescente também e não necessariamente precisa ser linear.

Page 13: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

5

Além dos componentes sazonal e de tendência, há um terceiro elemento que podemos observar nas séries temporais mais longas, característica marcante dos dados macroeconômicos. Estamos falando dos ciclos de negócios, cujo padrão se repete com certa regularidade. O que diferencia o comportamento sazonal do cíclico é que eles não ocorrem com a mesma periodicidade. Se por um lado é possível observar o movimento sazonal dentro de um ano, em momentos mais ou menos conhecidos, o movimento cíclico ocorre em períodos não fixos.

Nos Estados Unidos, o NBER, que é uma organização privada dedicada ao desenvolvimento de estudos e pesquisas econômicas aplicadas, é famoso pelos seus trabalhos relacionados aos ciclos de negócios. Sugerimos que você navegue pelo site deles e veja as suas publicações, por exemplo, os relatórios sobre ciclos de negócios dos Estados Unidos desde 1854, disponível em: <http://www.nber.org/cycles.html>. Acesso em: 10 abr. 2019.

O último elemento que compõe uma série temporal é o componente irregular. Ele não tem um padrão bem definido, é puramente aleatório. Para exemplificar esse componente e os demais, tornando mais claro o que foi dito até agora, vamos supor uma variável Yt, formada pela seguinte equação:

Yt = 0,83Yt-1 + µt 1.1

Suponha ainda que o termo µt seja extraído de forma individual e independente a partir de uma série de números aleatórios com distribuição normal, média zero e variância 1, ou seja, µt ~ i.i.d.N(0,1). Para tornar o nosso exercício ainda mais completo, vamos supor que a base de dados tenha 70 observações, e vamos usar o Gretl para simular essa base.

Começamos abrindo o Gretl e no menu “Ferramentas”. Você deve selecionar a opção “Console Gretl”. Digite a sequência de comandos a seguir, pressionando o “Enter” do seu teclado ao final de cada linha:

nulldata 70setobs 1 1 --special-time-seriesseries u = normal(0,1)series Y = 0Y = 0.83*Y(-1) + ugnuplot Y --time-series --with-lines

A primeira linha de comando cria um banco de dados vazio com tamanho de 70 observações. Na segunda linha de comandos, você informa ao Gretl que esse conjunto de dados é de séries temporais, que possui uma sequência especial, iniciando no número 1 e evoluindo de 1 em 1 até o final da série. Depois você extrai uma sequência de números aleatórios com distribuição normal, média zero e variância 1, nomeando-o como u.

Page 14: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

6

GRÁFICO 2 – SIMULAÇÃO DE SÉRIE TEMPORAL IRREGULAR

FONTE: O autor com o uso do Gretl

Na quarta linha, criamos a série Y, com inicial zero para todas as observações. Isso nos permite construir, a partir da quinta linha, a Equação 1.1, prestando atenção ao fato de que o Gretl separa os decimais por pontos ao invés de vírgula. E, finalmente, na última linha, damos um comando para que o Gretl plote o gráfico de série temporal, que reproduzimos no gráfico anterior.

Para ficar bem claro como o Gretl reproduziu a Equação 1.1, observe o quadro a seguir. Ele traz as primeiras 10 observações dessa série de dados. Perceba que ao digitar o comando séries “Y = 0”, estamos definindo a primeira realização dessa série como Y1 = 0. Depois que executamos o comando da quinta linha, escrevendo a equação, temos Y2 = Y1 + u2 = 0 + (–1,742257) = –1,742257. Na terceira realização, temos Y3 = Y2 + u3 = –1,742257 + (–0,731363) = –2,177436, e assim sucessivamente.

QUADRO 1 – BASE DE DADOS SIMULADA

FONTE: O autor com o uso do Gretl

Obs ut Yt

1 0,625275 0,0000

2 -1,742257 -1,742257

3 -0,731363 -2,177436

4 -2,158987 -3,966258

5 1,673001 -1,618993

6 1,123592 -0,220172

7 0,452724 0,269981

8 -0,070856 0,153228

9 -1,524995 -1,397815

10 0,173102 -0,987084

Page 15: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

7

Como a base dessa série de dados é uma sequência de números aleatórios, é provável que você encontre números diferentes dos que apresentamos no quadro anterior. Note que ao criar a série de dados, o Gretl gerou uma variável chamada index. Se você abrir essa variável, verá que é uma sequência de números começando em 1 e terminando em 70. Usaremos essa variável para criar uma série de tendência, supondo que a tendência temporal possa ser desenhada pela Equação 1.2.

Tt = 1 + 0,1indext 1.2

Além dessa série de tendência, construiremos um conjunto de dados que tenha um comportamento sazonal, seguindo a Equação 1.3.

1,8seno6t tS index π = 1.3

Para isso, digite a sequência de comandos a seguir no “Console Gretl”. Quando a linha começa com #, significa que se trata de um comentário e que esse comentário não será interpretado pelo Gretl como sendo um comando executável.

# Primeiro geramos uma série de tendência:series T = 1 + 0.1*indexgnuplot T --time-series --with-lines

# Para gerar uma série sazonal, utilizamos o seguinte comando:series S = 1.8*sin(index*($pi/6))gnuplot S --time-series --with-lines

O comando “gnuplot” é usado para plotar o gráfico, em que “time-series” indica que é um gráfico de série temporal e “with-lines” informa ao Gretl que queremos que o desenho do gráfico seja feito com linhas.

Para finalizar, iremos supor uma série temporal Z, gerada a partir de um processo com tendência temporal, somada a um componente sazonal e um componente irregular. Dito de outra forma, vamos juntar todas as variáveis criadas anteriormente e ver como é uma série temporal que tenha componentes cíclicos, de tendência e errático. Para isso, no “Console Gretl”, digite a seguinte sequência de comandos:

series ZZ = Y + T + Sgnuplot Z --time-series --with-lines

Page 16: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

8

FIGURA 1 – SIMULANDO OS COMPONENTES DE UMA SÉRIE TEMPORAL

FONTE: o autor

A figura anterior apresenta o conjunto de gráficos gerados a partir das séries simuladas com o uso do Gretl. Quando analisamos cada um dos gráficos gerados, conseguimos visualizar os componentes das séries temporais de forma isolada. Por outro lado, o gráfico da variável “Z” contém os elementos de tendência, aleatório e sazonal. Perceba que, ao simular essas séries, informamos exatamente qual a é equação ou o seu processo gerador. Na prática, buscamos séries temporais como a do Gráfico 1 e tentamos isolar cada um desses componentes que aparecem na figura anterior o que nos permite prever o seu comportamento futuro.

Isolar os componentes de uma série temporal em tendência, irregular e sazonal não é uma tarefa difícil hoje em dia. Atualmente, os diversos pacotes de software econométrico trazem em suas rotinas diversos filtros. No caso do Gretl, ele traz no menu “Variável” e “Filtro” pelo menos 7 opções, sendo o filtro HP, desenvolvido por Hodrick e Prescott (1997), o mais famoso deles. A figura a seguir traz os dados do Gráfico 1 decomposto com o uso do filtro HP.

Page 17: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

9

FONTE: o autor

FIGURA 2 – VENDA DE FERTILIZANTES DECOMPOSTA PELO FILTRO HP

O filtro HP estima a tendência de longo prazo da série e mostra sua flutuação cíclica. Ele é construído a partir da equação 1.4.

Σt=1(yt – gt)2 + λΣt=2 [(gt+1 – gt) – (gt – gt–1)]2 1.4

Em que a série Yt é decomposta em tendência (ou componente de crescimento) gt, e componente cíclico ct. Assim, yt = gt + ct, com t = 1, 2, ..., T. Ainda em relação à equação 1.4, o parâmetro de suavização λ assume valor igual a 1.600 no trabalho de Hodrick e Prescott (1997), penalizando a incorporação das flutuações na componente de tendência.

Lembre-se de que os padrões de comportamento encontrados nas séries temporais, tais como tendência (a série segue uma determinada direção), sazonalidade (padrões que se repetem com uma certa periodicidade), ciclo (semelhante à sazonalidade, só que com periodicidade maior que um ano), e o comportamento errático (puramente aleatório) não necessariamente ocorrem de forma isolada. Muitas séries de tempo apresentam alguma combinação de dois ou mais desses padrões de comportamento.

T T–1

Page 18: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

10

Já vimos um pouco sobre séries temporais, mas ainda não formalizamos sua definição. Podemos dizer que uma série temporal é uma sequência de observações ordenadas no tempo. Assim, o Produto Interno Bruto trimestral dos últimos 10 anos, a inflação mensal medida pelo IPCA entre os anos de 2010 e 2018, a cotação diária da taxa de câmbio expressa em R$/US$ e o preço de uma determinada ação, obtida a cada 15 minutos no home broker, são exemplos de séries de dados ordenados no tempo.

Vimos que as séries temporais apresentam alguns padrões específicos de comportamento, mas há casos em que esse padrão não é observado. Estamos falando dos processos estocásticos, que são coleções de variáveis aleatórias ordenadas no tempo (GUJARATI; PORTER, 2011).

Parece estranho falarmos em uma coleção de variáveis aleatórias, mas pense no preço daquela ação que você vem acompanhando há algum tempo. Imagine que no final do pregão de ontem ela fechou em um determinado patamar. Você consegue dizer com precisão qual é o preço que essa ação fechará hoje? A menos que você tenha inventado uma máquina capaz de lhe transportar para o passado e para o futuro, o preço dessa ação no final do dia de hoje poderá assumir qualquer valor e esse valor é totalmente desconhecido por você.

O mesmo acontece com o preço dessa ação durante a próxima semana e a cada novo pregão. Se dissermos que Y é o preço dessa ação, e que hoje ela fechou em Y1, o preço dela amanhã será Y2. Nos próximos dias, essa mesma ação assumirá os valores de Y4, Y5, ..., YT, em que esse subscrito 1, 2, ..., T representa o dia 03/12/2018, 04/12/2018, e assim sucessivamente. Como você pôde verificar, cada uma dessas observações pode ser encarada como uma variável aleatória, ou estocástica, porque pode assumir qualquer valor desconhecido.

No entanto, quando esse valor se torna conhecido, deixamos de chamar de variável aleatória e passamos a chamá-la de realização. Neste ponto, você deve se lembrar da econometria 1, quando tínhamos uma população de dados e dessa população extraíamos uma amostra. Em séries temporais, o processo estocástico ou aleatório é o equivalente à população que vimos em dados de corte, enquanto as realizações são análogas à amostragem. Para entender o comportamento do processo estocástico subjacente, é necessário utilizar a realização dessas séries, assim como fazíamos com as amostras em econometria 1.

3 ESTACIONARIEDADE E NÃO ESTACIONARIEDADE, RUÍDO BRANCO E ERGODICIDADE

Um dos conceitos mais importantes da econometria de séries temporais é o da estacionariedade. Para entendê-lo, considere um processo estocástico {Yt}, que para ser estacionário não deve apresentar tendência e tanto a sua variação quanto o padrão dessa variação devem ser constantes no tempo. Dito de outra forma, para todo s, j,

Page 19: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

11

( ) ( )t t sE Y E Y µ−= =

( ) ( )2 2t t sE Y E Yµ µ−

− = −

( )( ) ( )( ) ( )( )t t s t j t j s t t kE Y Y E Y Y E Y Yγ µ µ µ µ µ µ− − − − − = − − = − − = − −

1.5

1.6

1.7

Em 1.5 temos a média do processo estocástico, µ, que não varia ao longo do tempo, e o mesmo acontece com a variância em 1.6. Isso nos faz pensar que seria possível deduzir se uma série temporal é estacionária ou não simplesmente visualizando um gráfico como o da figura a seguir.

FIGURA 3 – EXEMPLO DE SÉRIE TEMPORAL NÃO ESTACIONÁRIA E ESTACIONÁRIA

FONTE: <www.b3.com.br>. Acesso em: 9 abr. 2019

O IBOV se refere ao valor de fechamento diário do índice do Ibovespa, em pontos, enquanto o Ribov é a taxa de retorno do fechamento do Ibovespa. Analisando o IBOV, vemos que nos primeiros 70 pregões o valor do fechamento tem uma média mais ou menos constante ao longo do período enquanto que essa média passa a variar a partir daí. Esse comportamento é característico de séries que não são estacionárias.

Page 20: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

12

Por outro lado, ao observarmos o gráfico do retorno, ou seja, do Ribov, vemos um processo estacionário. Mesmo que a média pareça variar ao longo do tempo, não vemos uma tendência clara de queda ou de crescimento como tínhamos no caso do IBOV. O fato é que apenas olhar um gráfico e a partir daí concluir que a série é estacionária ou não, não é seguro do ponto de vista técnico. Mais adiante veremos as estatísticas de teste que devemos empregar para nos certificar de que a série é estacionária ou não.

Um exemplo clássico de uma série estacionária é o ruído branco. Uma sequência {εt} é um ruído branco se a sua média for igual a zero, a variância for constante e a autocorrelação for nula. Dito de outra forma,

( ) 0; tE tε = ∀

( )2 2; tE tε σ= ∀

( ), 0; 0t t jE jε ε − = ∀ ≠

O termo ruído branco vem da física e é análogo à função da sua densidade espectral como no caso da luz branca e das ondas eletromagnéticas, cujas alterações na série produzem ruídos semelhantes à sintonização de um rádio.

Você pode simular o ruído branco no Gretl. Para isso, abra o programa e selecione o menu “Ferramentas” e “Console Gretl”, digitando a sequência de comandos a seguir:

1.8

1.9

1.10

nulldata 100series RB = normal(0,1)setobs 1 1 --special-time-seriesgnuplot RB --time-series --with-lines

O gráfico a seguir reproduz o resultado dessa sequência de comandos e mostra a série de ruído branco simulada no computador. Muitos econometristas, ao fazerem seus estudos, costumam olhar o gráfico das séries temporais antes de estimar os modelos econométricos. Fazendo assim eles comparam os gráficos gerados com o de uma série de ruído branco. Caso os dados apresentem um desenho parecido com o do gráfico a seguir, eles têm indícios de que a série em questão é estacionária.

Por outro lado, se o desenho não for parecido com o do gráfico a seguir, eles têm elementos suficientes para acreditar que a série em questão não é estacionária. Neste caso precisam apenas confirmar se estão diante de um passeio aleatório com ou sem deslocamento, ou se a série apresenta alguma tendência estocástica ou determinística.

Page 21: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

13

GRÁFICO 3 – SÉRIE DE RUÍDO BRANCO

FONTE: o autor

Mas por que a questão da estacionariedade de uma série temporal é tão importante? Porque queremos entender o comportamento passado dessa série para assim podermos projetar a sua trajetória futura. Imagine que sua empresa está elaborando o planejamento estratégico do próximo ano. Supondo que o produto que vocês comercializam é uma commoditie agrícola e você tem a tarefa de fazer uma projeção da cotação desse produto para o próximo ano.

Se você conseguir, com base no histórico das cotações, criar uma equação que modele a trajetória passada dessa variável, você poderá construir um cenário possível para o preço dessa commoditie. Porém, se você não isolar o efeito sazonal e eliminar a tendência, a sua projeção poderá ter um viés que compromete todo o planejamento estratégico da sua empresa para o próximo período.

Dito de outra forma, estamos interessados em entender o comportamento puro das séries temporais, sem a influência dos outros componentes. Deixando a série estacionária, podemos fazer isso com segurança, porém, a estacionariedade apenas não é suficiente, como alerta Bueno (2008), sendo necessário também satisfazer a propriedade da ergodicidade.

Segundo Morettin (2016, p.13),

[...] um processo é ergódico se pudermos estimar características de interesse (média, autocovariância etc.) a partir de uma única trajetória do processo. Assim, um processo é ergódico na média se a média amostral convergir, em probabilidade, para a média verdadeira do processo.

Page 22: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

14

1.11

Uma maneira de entender o que isso significa é imaginar uma série {yt} qualquer e uma realização dessa série, s. Se a média é dada por:

( ) ( )

1

1 Ts s

tt

y yT =

= ∑

Se y(s) convergir para E(yt), dizemos que existe ergodicidade, e, portanto, a série é estacionária.

4 PASSEIO ALEATÓRIO E TENDÊNCIA

Um passeio aleatório, como o próprio nome diz, é uma sequência de dados que assume qualquer valor no tempo, sem tendência definida, ou ainda, como define Ferreira (2018, s.p.), “[...] é um processo composto pela soma de choques aleatórios, que pode ser representada pela soma cumulativa de ruídos brancos”.

Um exemplo de passeio aleatório é o preço das ações, como mostra o gráfico (a) da figura a seguir. O desenho da trajetória do preço de fechamento dessa ação não se parece com o ruído branco que vimos no Gráfico 3. Na verdade, o gráfico (b) da figura a seguir tem uma imagem mais parecida com um ruído branco.

O gráfico (b) expressa a taxa de retorno diário dessa ação, dado por rt = log( ), e, ao se parecer com um ruído branco, podemos supor que se trata de uma série estacionária. Por outro lado, o gráfico (a) parece ser composto por uma tendência ascendente ao longo do tempo, um componente estacionário, e um ruído branco, como descrito na Equação 1.12.

yt = tendência + componente estacionário + ruído branco 1.12

PP

FIGURA 4 – PREÇO DE FECHAMENTO E RETORNO DA AÇÃO BBAS3

Page 23: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

15

FONTE: <www.b3.com.br>. Acesso em: 9 abr. 2019.

Em resumo, um passeio aleatório, como em 1.12 ou o gráfico (a) da figura anterior, é um processo não estacionário.

Imagine agora que você queira projetar o preço dessa ação para o dia de amanhã, e para isso você supõe que:

yt = yt–1 + ut 1.13

Em que ut é um ruído branco. Chamamos 1.13 de passeio aleatório sem deslocamento (porque não tem uma constante na equação), e note que não somos capazes de prever o preço da ação amanhã, t, usando como base o preço da ação de hoje, t–1, justamente por causa do componente aleatório (ruído branco). Se o preço da ação de amanhã fosse igual ao preço dela hoje, não faria o menor sentido aplicar em ações, porque não haveria variação no preço.

A Equação 1.13 também é conhecida como um processo AR(1), porque o valor de y no tempo 𝑡 é igual a seu valor no tempo (𝑡−1) mais um choque aleatório. E como fica a média e a variância no caso de um passeio aleatório sem deslocamento?

Para responder a essa pergunta vamos reescrever 1.13 um período à frente:

yt+1 = yt + ut+1 1.14

Se avançarmos mais um período, teremos:

yt+2 = yt+1 + ut+2 = yt + ut+1 + ut+2 1.15

Page 24: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

16

Avançando ainda mais um período, chegamos a:

yt+3 = yt+2 + ut+3 = yt + ut+1 + ut+2 + ut+3 1.16

Se continuarmos avançando no tempo, veremos que tudo se resume a:

yt = y0 + Σt=1 ut 1.17

E(yt) = E(y0 + Σt=1 ut) = y0 1.18var(yt) = tσ2 1.19

Em 1.18 vemos que a média de yt é igual a sua condição inicial, y0, e esse valor é constante no tempo. Por outro lado, em 1.19, vemos que a variância aumenta indefinidamente à medida que avançamos no tempo t, o que viola a condição de estacionariedade, tornando o passeio aleatório sem deslocamento em um processo estocástico não estacionário.

Você pode simular um passeio aleatório abrindo o menu “Ferramentas” no Gretl e escolhendo “Console Gretl”. Ao abrir a janela, digite a sequência de comandos a seguir:

q

q

nulldata 600setobs 1 1 --special-time-seriesseries u = normal()series Y1 = 0Y1 = Y1(-1)+ugnuplot Y1 --time-series --with-lines

Vamos acrescentar um parâmetro de deslocamento δ a esse modelo de passeio aleatório e ver o que acontece. Em linguagem de séries temporais, muitas vezes, você lerá a expressão “drift”, que deve ser interpretada como deslocamento.

Reescrevemos a Equação 1.13 da seguinte forma:

yt = δ + yt-1 + ut 1.20

Para ver o que acontece na prática, volte ao Console Gretl e digite a seguinte sequência de comandos, considerando δ = 2:

series Y2 = 0 Y2 = 2 + Y2(-1) + u gnuplot Y2 --time-series --with-lines

Page 25: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

17

Você deve ter em mente que não importa se o modelo é com ou sem deslocamento, em ambos os casos, a série será não estacionária. Para tornar a série estacionária, é preciso tirar a primeira diferença, tanto em 1.13 quanto em 1.20. Para a equação sem deslocamento fazemos:

yt = yt-1 + ut 1.21yt – yt-1 = ∆yt = ut 1.22yt = δ +yt-1 + ut 1.23yt – yt-1 = ∆yt = δ + ut 1.24

Vemos que ambas as séries em 1.22 e 1.24 são estacionárias, porque no caso do passeio aleatório sem deslocamento, o que resta após a diferenciação é um ruído branco, ut. Por outro lado, no caso da série com deslocamento, resta o parâmetro de deslocamento δ, que é uma constante, e o ruído branco, que por definição é estacionário. Assim vemos que um passeio aleatório é não estacionário em nível, mas é estacionário em primeira diferença.

Há ainda algumas séries temporais que flutuam em torno de uma tendência determinística e modelos com essa característica são chamados de tendência estacionária. Para entender como esses modelos funcionam, vamos analisar o seguinte modelo de regressão:

yt = β1 + β2t + ut 1.25

A série {Yt} pode se tornar estacionária se removermos essa tendência determinística através da estimação do modelo 1.25, ou seja, fazendo ut = β1 – β2t, ou tirando a primeira diferença, como em 1.26.

yt = β1 + β2t + ut 1.26

Diferenciando obtemos uma série estacionária em diferenças:

yt – yt-1 = Δyt = β1 + β2t + ut 1.27

Vamos compreender melhor esses conceitos simulando duas séries temporais, uma tendência estocástica, ou seja, totalmente imprevisível, e outra tendência determinística, totalmente previsível. A série de tendência estocástica será gerada pelo processo,

yt = 0,5 + yt-1 + ut 1.28

Enquanto a série de tendência determinística tem como processo gerador da série a equação 1.29,

Xt = 0,5t + ut 1.29

Page 26: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

18

nulldata 700setobs 1 1 --special-time-seriesseries u = normal()series Y = 1Y = 0.5 + Y(-1) + ugenr timeseries X = 0X = 0.5*time + ugnuplot Y X --time-series --with-lines

O gráfico a seguir apresenta o resultado dessa simulação. Devemos destacar que no caso da tendência determinística, sabemos com facilidade qual a tendência temporal da série, porque ela não varia ao longo do tempo. Por outro lado, no caso da tendência estocástica, não temos como prever o comportamento da tendência temporal, porque ela é totalmente imprevisível, em função do componente aleatório ut, que é um dos componentes dessa série.

GRÁFICO 4 – TENDÊNCIA ESTOCÁSTICA E TENDÊNCIA DETERMINÍSTICA

FONTE: o autor

Abra o Gretl, selecione o menu “Ferramentas” e depois “Console Gretl”, digitando a seguinte sequência de comandos:

Page 27: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

19

5 PROCESSOS INTEGRADOS, RAIZ UNITÁRIA E REGRESSÃO ESPÚRIA

Quando temos que tirar a primeira diferença de uma série temporal, {yt} por exemplo, fazendo Δyt = yt – yt-1, dizemos que a série é integrada de ordem 1 e a representamos como I(1). Da mesma forma, se ao diferenciar a série, uma vez ela não se tornar estacionária, mas, ao diferenciar uma segunda vez, ela se tornar estacionária, fazendo ΔΔyt = Δ(yt – yt–1), dizemos que a série {yt} é integrada de ordem 2, e representamos como I(2).

Assim, se tivermos uma série que, para se tornar estacionária teremos que diferenciá-la "d" vezes, dizemos que a série é integrada de ordem "d", ou I(d), mas se não precisarmos diferenciá-la para torná-la estacionária, ou seja, se for estacionária em nível, dizemos que a série em questão é I(0), ou integrada de ordem zero.

Em seu livro, Gujarati e Porter (2011) enumeram uma lista de propriedades das séries temporais integradas, onde relacionam três séries, Xt, Yt e Zt, conforme transcrevemos a seguir:

1. Se Xt ~ I(0) e Yt~I(1), então Zt = (Xt + Yt) = I(1).2. Se Xt ~I(d), então Zt = (a + bXt) = I(d).3. Se Xt~I(d1) e Yt~I(d2) , então Zt = (aXt + bYt)~I(d2).4. Se Xt~I(d) e Yt~I(d), então Zt = (aXt + bYt)~I(d).

Na primeira propriedade, temos uma combinação linear de duas séries, sendo a primeira delas estacionária em nível enquanto a segunda, para ser estacionária, deverá ser diferenciada uma vez. O resultado dessa combinação é uma série que não é estacionária. A segunda propriedade mostra que uma combinação linear de séries temporais, onde a série precisa ser diferenciada d vezes para se tornar estacionária, gera como resultado uma série integrada de ordem d. Isso implica dizer que se a combinação Zt for feita com uma série estacionária, I(0), o resultado também será uma série I(0).

As propriedades 3 e 4 informam que combinações de séries temporais integradas de ordem diferente geram séries temporais combinadas cuja ordem de integração será a da série original que tiver a ordem maior. Assim, se uma série é estacionária, I(0) e a outra é I(1), o resultado de sua combinação será uma série I(1).

Como vemos, é importante sabermos a ordem de integração das séries temporais, ou seja, quantas vezes precisamos diferenciá-las para que se tornem estacionárias. O problema é que apenas olhando para um gráfico de série temporal, muitas vezes, teremos a convicção de que estamos diante de uma série não estacionária, mas não saberemos de qual ordem. A saída é fazer um teste estatístico na série, como veremos no Tópico 2, chamado de teste de raiz unitária.

Page 28: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

20

Devemos empregar testes de raiz unitária nos nossos dados porque, como alerta Ferreira (2018, s.p.), “Para uma série que apresenta não estacionariedade devido à presença de raiz unitária, a remoção de tendência não a torna estacionária”

Bueno (2008, p. 95) é bem enfático quando diz que: “É proibido diferenciar uma série que é tendência estacionária, porque isso adiciona ruído à série original. Da mesma forma, é proibido estimar uma série que é tendência estocástica usando tendência determinística, porque isso não elimina a tendência estocástica”.

Como já dissemos, a simples visualização de um gráfico não nos permite distinguir uma série com tendência estocástica de uma com tendência determinística. Para fazer isso, empregaremos os testes de raiz unitária. Mas o que é raiz unitária afinal de contas?

É comum uma série temporal macroeconômica apresentar raiz unitária. Para entender o que isso significa, considere o seguinte modelo econométrico autorregressivo:

yt = yt–1 + ut 1.30

Suponha ainda que ut é um ruído branco. Em 1.30 o valor presente de yt depende do seu valor ocorrido no período anterior, yt-1 mais um choque aleatório, ut. Se em t + 1 ocorrer um choque não antecipado, isso terá reflexo em yt+1. Esse choque impactará em yt+2, yt+3, ..., yt+T, se traduzindo em um choque permanente.

Se por outro lado o modelo fosse,

yt = αyt–1 + ut 1.31

E se |α| < 1, o efeito do choque se dissipa no tempo, porque diferentemente de 1.30, quando um choque em t + 1 se torna permanente, em 1.31 apenas uma proporção α desse choque impactará a trajetória da série {yt}, e esse efeito será cada vez menor à medida que se avança no tempo.

Segundo Maddala (2003), o que temos que observar em 1.31 é se α < 1 ou se α = 1. No primeiro caso, a série é estacionária e no segundo caso não, caracterizando o que chamamos na econometria de raiz unitária.

Teremos a oportunidade de voltar a esse tema mais adiante nesse material. Por enquanto queremos que você encare os termos não estacionário, passeio aleatório, raiz unitária, tendência estocástica e integrado de ordem 1, I(1), como sinônimos.

E o que acontece se rodarmos uma regressão na qual as séries são não estacionárias? Nesse caso o resultado obtido será o de uma regressão espúria.

Page 29: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

21

Imagine que todos os anos há uma concessão especial na época de natal para que pessoas que estão presas possam passar o Natal e o ano novo junto com seus familiares. Por motivos que não sabemos explicar, ao invés de serem liberados apenas os presos com bom comportamento e que já estão em estágio avançado no processo de ressocialização, alguns criminosos perigosos também são soltos, que acabam cometendo vários delitos como assaltos a residências.

Digamos também que nos finais de ano a temperatura está mais alta do que a média dos meses anteriores, e que as pessoas busquem se refrescar tomando sorvete, fazendo a média do consumo de sorvetes se elevar acima da média dos meses anteriores.

Imagine agora que um economista ficou intrigado com a elevação no consumo do sorvete e dos assaltos às casas, e decidiu testar essas duas variáveis e ver se elas estão correlacionadas.

Após coletar os dados de vários anos, chegou à conclusão de que o consumo de sorvete é responsável pelo aumento da criminalidade. Você concorda com essa conclusão? Você acha que isso realmente faz algum sentido?

Considere que ocorre uma elevação nos assaltos justamente no período em que há maior consumo de sorvetes. Obviamente, se olharmos um gráfico dessas duas variáveis, observaríamos que elas seguem na mesma direção, como se o comportamento de uma delas dependesse da outra. Isso leva o pesquisador a aceitar uma relação entre variáveis que é apenas numérica, e que não tem nenhum sentido econômico. Chamamos esse resultado de espúrio, porque não é verdadeiro, não condiz com a realidade.

Vamos simular essa relação espúria, adaptando o exemplo dado por Gujarati e Porter (2011). Para isso abra o Gretl e selecione o menu “Ferramentas” e depois “Console Gretl”, digitando os seguintes comandos:

nulldata 800setobs 1 1 --special-time-seriesseries u1 = normal(0,1)series Y = 0Y = Y(-1)+u1series u2 = normal(0,1)series X = 0X = X(-1)+u2gnuplot Y X --time-series --with-lines

Observe que no último passo você plota um gráfico comparando as duas variáveis no tempo. Esse resultado é reproduzido no gráfico a seguir.

Page 30: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

22

GRÁFICO 5 – EXEMPLO DE REGRESSÃO ESPÚRIA

FONTE: O autor

Veja como as séries caminham em uma mesma direção. Note que esse resultado é obtido a partir de duas séries geradas ao acaso, a partir de sequências distintas de números aleatórios com média zero e variância 1. Podemos aproveitar que estamos com o console do Gretl aberto e digitar a expressão: ols Y const X. O resultado obtido está no quadro a seguir no qual tivemos o cuidado de colocar em negrito duas estatísticas que usamos em Econometria 1, e que vale a pena rever.

QUADRO 2 – RESULTADO DE UMA REGRESSÃO ESPÚRIA

FONTE: O autor

Modelo 1: MQO, usando as observações 1-800Variável dependente: Y

coeficiente erro padrão razão-t p-valor ---------------------------------------------------------

const −12,6430 0,749794 −16,86 8,51e-055 *** X 1,72345 0,0515875 33,41 9,15e-154 ***

Média var. dependente −33,20564 D.P. var. dependente 18,74580Soma resíd. quadrados 117054,8 E.P. da regressão 12,11137R-quadrado 0,583097 R-quadrado ajustado 0,582575F(1, 798) 1116,116 P-valor(F) 9,1e-154Log da verossimilhança −3129,465 Critério de Akaike 6262,931Critério de Schwarz 6272,300 Critério Hannan-Quinn 6266,530rô 0,987346 Durbin-Watson 0,023943

Page 31: EconomEtria ii - UNIASSELVI

TÓPICO 1 | CONCEITOS PRELIMINARES

23

Veja que os coeficientes estimados são estatisticamente significativos. Você pode perceber também que o R2 = 0,5831, o que indica que 58,31% das alterações em Y são explicadas por esse modelo de regressão. É como se 58,31% dos assaltos, Y, fossem explicados pelo consumo de sorvete, X, o que de fato não faz o menor sentido.

Percebemos também que a estatística de Durbin-Watson é muito pequena, indicando a possiblidade da existência de autocorrelação de primeira ordem. Aqui vai uma dica valiosa para você. Sempre desconfie de um resultado no qual a estatística de Durbin-Watson é menor que o R2. Esse é um forte indicativo de uma regressão espúria.

QUADRO 3 – RESULTADO DA ESTIMAÇÃO DA REGRESSÃO COMAS VARIÁVEIS EM DIFERENÇA

FONTE: O autor

Modelo 2: MQO, usando as observações 2-800 (T = 799)Variável dependente: d_Y

coeficiente erro padrão razão-t p-valor -------------------------------------------------------- const −0,0904887 0,0344396 −2,627 0,0088 *** d_X 0,0277220 0,0364310 0,7609 0,4469

Média var. dependente −0,091710 D.P. var. dependente 0,972174Soma resíd. quadrados 753,6607 E.P. da regressão 0,972431R-quadrado 0,000726 R-quadrado ajustado -0,000528F(1, 797) 0,579037 P-valor(F) 0,446915Log da verossimilhança −1110,394 Critério de Akaike 2224,787Critério de Schwarz 2234,154 Critério Hannan-Quinn 2228,386rô 0,021239 Durbin-Watson 1,953878

Obs.: Para tirar a primeira diferença das séries, basta fazer ∆Yt = Y

t – Y

t-1, e ∆X

t – X

t-1. No

Gretl você seleciona as variáveis, escolhe o menu “Acrescentar” e depois “Primeiras diferenças das séries selecionadas”.

Esse resultado espúrio ocorre porque essas séries apresentam o problema de raiz unitária, ou seja, não são estacionárias. Se tirarmos a primeira diferença e fizermos a estimação, obteremos os resultados realistas, como vemos no quadro anterior.

O resultado agora é mais coerente com a realidade, em que o coeficiente angular não é estatisticamente significativo, indicando a inexistência de uma correlação entre as variáveis. Da mesma forma, a estatística de Durbin-Watson é bem próxima de 2, indicando a ausência de autocorrelação de primeira ordem.

Page 32: EconomEtria ii - UNIASSELVI

24

Nesse tópico você aprendeu que:

• Uma série temporal é uma sequência de observações ordenadas no tempo.

• Uma série temporal pode ser formada por um componente errático, de tendência, sazonal e cíclico, sendo que um ou mais desses componentes sempre estarão presentes nessas séries.

• É possível simular séries temporais e seus componentes usando o Gretl.

• Para isolar os componentes de uma série temporal em tendência, irregular e sazonal, podemos aplicar os filtros disponíveis no Gretl, tais como o filtro HP, desenvolvido por Hodrick e Prescott (1997).

• Em séries temporais, o processo estocástico ou aleatório é o equivalente à população que vimos em dados de corte, enquanto as realizações são análogas à amostragem.

• Os termos não estacionário, passeio aleatório, raiz unitária, tendência estocástica e integrado de ordem 1, I(1), devem ser interpretados como sinônimos.

• Um resultado espúrio é obtido a partir da estimação de duas séries temporais cuja combinação não faz o menor sentido econômico. Uma maneira de verificar se o resultado da regressão é espúria é comparar a estatística de Durbin-Watson com o R2. Se o R2 for menor que o Durbin-Watson, há sérios indícios de um resultado espúrio.

RESUMO DO TÓPICO 1

Page 33: EconomEtria ii - UNIASSELVI

25

1 Sobre os conceitos preliminares relativos às séries temporais, avalie as afirmações a seguir respondendo V para verdadeiro e F para falso.

a) ( ) As séries temporais apresentam alguns padrões de comportamento, tais como tendência, sazonalidade e ciclo.

b) ( ) É importante ressaltar que estas componentes ocorrem de forma isolada, ou seja, se uma série apresenta um componente de tendência, não terá um componente de ciclo ou sazonal embutido na mesma série.

c) ( ) A distinção entre o processo estocástico e sua realização é parecida com a distinção entre a população e a amostra de dados em cortes transversais. Do mesmo modo que utilizamos as amostras de dados para extrair inferências sobre a população, utilizamos, em séries temporais, a realização para extrair inferências sobre o processo estocástico subjacente.

d) ( ) Um processo de série temporal é estacionário se apresentar tendências aparentes, e média variante ao longo do tempo.

e) ( ) Uma sequência {εt} é um ruído branco se cada valor nela tiver média zero, variância constante e não for correlacionado com qualquer realização da própria série (autocorrelação igual a zero).

2 Dê o significado dos seguintes termos:

a) Estacionariedade.b) Regressão espúria.c) Série temporal.

AUTOATIVIDADE

Page 34: EconomEtria ii - UNIASSELVI

26

Page 35: EconomEtria ii - UNIASSELVI

27

TÓPICO 2

ANÁLISE UNIVARIADA

UNIDADE 1

1 INTRODUÇÃO

No Tópico 1 fizemos uma breve introdução aos principais conceitos relativos às séries temporais. Agora vamos aprofundar mais esse tema através da análise univariada. Basicamente, o que faremos aqui é analisar uma única variável e tentar encontrar uma equação capaz de replicar o comportamento dessa série.

Antes de construir essa equação, precisamos saber se a série é estacionária. Para isso, empregaremos um teste informal, a visualização do gráfico de série temporal, e depois os testes formais, como o correlograma e o teste de raiz unitária.

Se estivermos diante de uma série estacionária, sem a influência dos componentes sazonal, cíclico e de tendência, restando apenas o componente aleatório, poderemos construir um modelo capaz de reproduzir o comportamento dessa série e projetar o seu comportamento futuro.

A metodologia utilizada para esse fim é a desenvolvida e aprimorada por Box, Jenkins e Reinsel (2008), que consiste em um procedimento que segue alguns passos, sendo o primeiro deles a verificação da estacionariedade, depois se busca identificar a equação que melhor descreve o comportamento temporal da série, a estimação, os testes de diagnóstico e a aplicação para fins de previsão e controle.

2 PROCESSOS ESTOCÁSTICOS

Quando se está diante de uma série temporal não estacionária, é muito difícil estimar o processo gerador dessa série. Um dos motivos é a dificuldade em se calcular a média, variância e covariância da série, dificultando a adoção de procedimentos de inferência estatística (BUENO, 2008).

O primeiro passo quando se decide estimar o processo gerador de uma série temporal consiste em verificar se ela é estacionária. Vamos dar uma olhada no gráfico a seguir, que traz o EMBI+, sigla para Emerging Markets Bond Index (Índice de Títulos da Dívida de Mercados Emergentes), criado pelo JPMorgan em 1992, que é utilizado como uma medida de risco para o país.

Page 36: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

28

Mesmo um pesquisador experiente terá dificuldades em analisar um gráfico e determinar se a série em questão é estacionária ou não. Por isso a visualização do gráfico como técnica a ser empregada deve ser vista com cautela.

Claramente a série EMBI+ apresenta um caminho descendente ao longo do tempo, mostrando certa tendência. Por esse motivo podemos levantar certa suspeita de que estamos diante de uma série não estacionária, mas só podemos afirmar com certeza após a aplicação de algum teste estatístico.

GRÁFICO 6 – EMBI+ DIÁRIO PARA O BRASIL, JANEIRO DE 2016 ATÉ JULHO/2018

FONTE: <www.ipeadata.gov.br>. Acesso em: 9 abr. 2019.

Os econometristas costumam usar testes formais para detectar a estacionariedade de uma série. Um deles é a análise do correlograma. Para construir esse teste, primeiramente, precisamos obter a função de autocorrelação dessa série, na defasagem k. Essa função é obtida por:

��

�0

kk

γργ

= 2.1

Onde,

� ( )( )t t kk

Y Y Y Yn

γ +∑ − −= 2.2

Page 37: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

29

� ( )2

0tY Yn

γ∑ −

= 2.3

Em que, ρk é a autocorrelação na defasagem k, yk é a autocovariância na defasagem k, definida em 2.2 e y0 é a variância amostral da série, definida em 2.3. O correlograma da série EMBI+ é mostrado na figura a seguir, que é composta pela Função de Autocorrelação, FAC e pela Função de Autocorrelação Parcial, FACP. Esse teste é obtido no Gretl a partir do menu “Variável” e depois “Correlograma”.

FIGURA 5 – CORRELOGRAMA DA SÉRIE EMBI+

FONTE: O autor

Nesse momento o que interessa é apenas a parte de cima da figura anterior, ou seja, a Função de Autocorrelação. Nela percebemos que há um eixo horizontal no qual é estabelecido o número zero, e todas as hastes vermelhas estão fora do intervalo de confiança de 95% dado por ±1,96( ), conforme metodologia desenvolvida por Bartlett (1946).

Além da figura anterior, o Gretl também gera uma tabela com os dados do correlograma, como pode ser visto no quadro a seguir. É possível verificar dessa forma o valor das autocorrelações em cada uma das defasagens.

1√T

Page 38: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

30

QUADRO 4 – CORRELOGRAMA DA SÉRIE EMBI+

FONTE: O autor

Função de autocorrelação para EMBI***, **, * indicam significância aos níveis de 1%, 5% e 10%usando erro padrão 1/T^0,5

Defas. FAC FACP Estat. Q [p-valor]

1 0,9889 *** 0,9889 *** 657,1560 [0,000] 2 0,9794 *** 0,0687 * 1302,7553 [0,000] 3 0,9697 *** -0,0132 1936,4861 [0,000] 4 0,9611 *** 0,0491 2560,0284 [0,000] 5 0,9535 *** 0,0452 3174,6230 [0,000] 6 0,9468 *** 0,0458 3781,5581 [0,000] 7 0,9395 *** -0,0201 4380,1466 [0,000] 8 0,9306 *** -0,0816 ** 4968,2510 [0,000] 9 0,9220 *** 0,0069 5546,3821 [0,000] 10 0,9121 *** -0,0549 6113,1050 [0,000] 11 0,9020 *** -0,0370 6668,1186 [0,000] 12 0,8920 *** -0,0070 7211,7683 [0,000] 13 0,8811 *** -0,0616 7742,9580 [0,000] 14 0,8706 *** 0,0052 8262,3678 [0,000] 15 0,8619 *** 0,0820 ** 8772,2924 [0,000] 16 0,8523 *** -0,0420 9271,7039 [0,000] 17 0,8434 *** 0,0260 9761,4612 [0,000] 18 0,8347 *** 0,0175 10241,8328 [0,000] 19 0,8260 *** 0,0086 10712,9661 [0,000] 20 0,8165 *** -0,0195 11174,1197 [0,000] 21 0,8074 *** -0,0019 11625,7442 [0,000] 22 0,7972 *** -0,0579 12066,6789 [0,000] 23 0,7871 *** -0,0003 12497,2090 [0,000] 24 0,7769 *** -0,0282 12917,3001 [0,000] 25 0,7676 *** 0,0241 13327,9568 [0,000] 26 0,7569 *** -0,0653 * 13727,9313 [0,000] 27 0,7463 *** -0,0299 14117,3195 [0,000] 28 0,7354 *** -0,0065 14496,0274 [0,000]

Um fato importante em relação ao resultado apresentado pelo Gretl é que as autocorrelações são altas, próximas de 1 nas primeiras defasagens, e decaem lentamente. Essa é uma característica típica de séries não estacionárias.

Séries estacionárias, como o caso do ruído branco, apresentam correlograma semelhante à da figura a seguir. Nela podemos perceber que nenhuma das hastes vermelhas estão fora do intervalo de confiança de ±1,96 ( ).1

√T

Page 39: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

31

FIGURA 6 – CORRELOGRAMA DE UMA SÉRIE DE RUÍDO BRANCO

FONTE: o autor

Esse resultado é corroborado pelo quadro a seguir, que apresenta as autocorrelações da série de ruído branco. Perceba que os valores são baixos, muito próximos de zero, oscilando entre negativo e positivo. Podemos testar também a significância da estatística conjunta das autocorrelações até a defasagem k. Para isso, Box e Pierce (1970) desenvolveram a da estatística Q, definida como:

Q = n Σk=1 ρk 2.4

Onde n é o tamanho da amostra e m é o tamanho da defasagem. Essa estatística tem distribuição Qui-Quadrado com m graus de liberdade, e o seu valor estimado é comparado aos valores dessa tabela de distribuição. Se o valor calculado da estatística Q em uma certa defasagem é maior que o da tabela, dizemos que pelo menos algumas aucorrelações são estatisticamente diferentes de zero.

Alternativamente, podemos analisar o p – valor associado a essa estatística na defasagem k, como mostram os Quadros 4 e 5. A título de comparação, no Quadro 4, temos na defasagem 14, uma autocorrelação de 0,8706, com Q = 8262,3678, e p – valor = 0,0000. Assim, rejeitamos a hipótese nula de que todas as autocorrelações até a defasagem 14 são estatisticamente iguais a zero, aceitando a hipótese alternativa de que algumas dessas autocorrelações são diferentes de zero.

2m

Page 40: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

32

QUADRO 5 – CORRELOGRAMA DE UMA SÉRIE DE RUÍDO BRANCO

FONTE: O autor

Função de autocorrelação para Y***, **, * indicam significância aos níveis de 1%, 5% e 10%usando erro padrão 1/T^0,5

Defas. FAC FACP Estat. Q [p-valor]

1 -0,0028 -0,0028 0,0057 [0,940] 2 -0,0058 -0,0058 0,0294 [0,985] 3 0,0354 0,0354 0,9136 [0,822] 4 -0,0420 -0,0419 2,1616 [0,706] 5 0,0151 0,0154 2,3228 [0,803] 6 -0,0206 -0,0224 2,6241 [0,854] 7 -0,0153 -0,0122 2,7909 [0,904] 8 0,0350 0,0319 3,6595 [0,886] 9 -0,0352 -0,0327 4,5406 [0,872] 10 -0,0436 -0,0445 5,8971 [0,824] 11 -0,0286 -0,0322 6,4824 [0,839] 12 0,0235 0,0281 6,8755 [0,866] 13 -0,0023 -0,0039 6,8791 [0,908] 14 -0,0269 -0,0262 7,3968 [0,918] 15 0,0100 0,0063 7,4688 [0,943] 16 0,0128 0,0119 7,5871 [0,960] 17 0,0346 0,0358 8,4470 [0,956] 18 0,0499 0,0500 10,2424 [0,924] 19 -0,0551 -0,0551 12,4292 [0,866] 20 0,0312 0,0234 13,1346 [0,872] 21 -0,0056 -0,0081 13,1575 [0,903] 22 0,0120 0,0236 13,2618 [0,926] 23 0,0078 0,0006 13,3064 [0,945] 24 0,0578 0,0625 * 15,7389 [0,897] 25 -0,0419 -0,0488 17,0143 [0,881] 26 0,0458 0,0511 18,5434 [0,855] 27 0,0477 0,0547 20,2076 [0,822] 28 -0,0038 0,0051 20,2182 [0,856]

Por outro lado, a autocorrelação na defasagem 14 do ruído branco é de –0,0269, com Q = 7,3968 e p – valor = 0,918, o que nos leva a aceitar a hipótese nula de que as autocorrelações conjuntas até a defasagem 14 são estatisticamente iguais a zero.

Há outros testes estatísticos que podemos empregar para verificar se uma série é estacionária. Trata-se dos testes de raiz unitária. Para entender melhor a esses testes, considere o seguinte processo autorregressivo de primeira ordem, AR(1):

Page 41: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

33

yt = ϕ yt-1 + ut 2.5

Onde ut é um ruído branco, e se |ϕ| < 1, um choque não antecipado em ut não terá efeito permanente sobre yt, diferentemente se estivéssemos diante de um processo do tipo yt = yt-1 + ut, onde um choque não antecipado em ut teria efeito permanente sobre yt.

Para verificar se yt é um processo estacionário, podemos aplicar o teste de raiz unitária desenvolvido por Dickey e Fuller (1979), e para isso, subtraímos yt-1 de 2.5 para obter:

Δyt = (ϕ – 1)yt-1 + ut 2.6Δyt = αyt-1 + ut 2.7

Em 2.7, α = ϕ – 1 e testamos H0:α = 0. Aceitar a hipótese nula nesse caso significa admitir que ϕ = 1, de onde vem o nome de raiz unitária. O problema é que as tabelas de distribuição estatísticas que estamos habituados a usar não servem para esse teste, porque yt não é estacionário. A saída adotada por Dickey e Fuller foi desenvolver uma tabela própria baseada em experimentos de Monte Carlo, chamada de estatística τ (Tau).

O teste de Dickey e Fuller pode ser estimado de três formas, passeio aleatório sem deslocamento e sem tendência determinística, passeio aleatório com deslocamento e sem tendência determinística e passeio aleatório com deslocamento e com tendência determinística.

Δyt = αyt-1 + ut 2.8Δyt = µ + αyt-1 + ut 2.9Δyt = µ + δt + αyt-1 + ut 2.10

A hipótese nula do teste é H0:α = 0, ou seja, existe raiz unitária o que significa que a série não é estacionária. A hipótese alternativa, H1:α = 1, implicando em dizer que a série é estacionária.

O problema desse teste, segundo Bueno (2008), é a suposição de que ut é um ruído branco, o que na prática nem sempre se observa. A saída encontrada por Dickey e Fuller (1979) foi adicionar a variável Δyt no lado direito do sinal de igualdade das equações 2.8, 2.9 e 2.10, o que ficou conhecido como teste de Dickey e Fuller Aumentado, ou ADF. Na prática se deve incluir “... termos suficientes para que o termo de erro [...] seja serialmente não correlacionado...” Gujarati e Porter (2011, p. 751). Conseguimos assim obter um estimador não tendencioso de α nas equações do teste.

As equações 2.11, 2.12 e 2.13, respectivamente, representam o teste ADF para passeio aleatório sem deslocamento e sem tendência determinística, passeio aleatório com deslocamento e sem tendência determinística e passeio aleatório com deslocamento e com tendência determinística.

Page 42: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

34

Δyt = αyt-1 + Σi=1 Δyt-i + ut 2.11Δyt = µ + αYt-1 + Σi=1 Δyt-1 + ut 2.12Δyt = µ + δt + αyt-1 + Σi=1 Δyt-i + ut 2.13

A hipótese nula do teste ADF é o mesmo que o do teste de Dickey e Fuller, ou seja, H0: α = 0 , a série tem raiz unitária e não é estacionária, contra a hipótese alternativa, H1: α < 1, onde Yt não tem raiz unitária e, portanto, é estacionária.

Ferreira (2018) faz um alerta em relação ao pequeno poder estatístico do teste. Deve-se tomar cuidado ao interpretar o seu resultado, uma vez que se identificarmos uma série com raiz unitária e buscarmos a correção através da diferenciação, poderemos diferenciar uma série que já é estacionária, o que criaria um viés de especificação.

Existem outros testes de raiz unitária, tais como o KPSS, Phillips-Perron, Zivot-Andrews, além de testes de mudança estrutural. Para um aprofundamento em relação a esses testes, veja o Capítulo 4 da obra Econometria de séries temporais de Bueno (2008); o Capítulo 21, da obra Econometria básica de Gujarati e Porter (2011) e o Capítulo 3 da obra Análise de séries temporais em R: curso introdutório de Ferreira (2018). Para os nossos estudos aplicaremos apenas o teste ADF que é o teste mais utilizado ainda hoje na literatura econométrica para verificação de raiz unitária nas séries temporais.

Vamos ver na prática a aplicação dos testes de raiz unitária, usando dados mensais sobre passageiros de companhias aéreas internacionais. Esses dados foram extraídos de Box, Jenkins e Reinsel (2008), e podem ser acessados a partir do Gretl no menu “Arquivo”, depois “Abrir dados”, na sequência “Arquivo de exemplos” e na janela seguinte, escolha a aba “Gretl” e procure pelo arquivo “bjg.gdt”, dando um duplo click para abrir o arquivo.

A variável de interesse é gt, medida em milhares de passageiros, com dados mensais iniciando em janeiro de 1949 até dezembro de 1960, ilustrado no gráfico a seguir. Você seria capaz de dizer se essa série temporal é estacionária apenas observando o gráfico? Percebemos claramente o componente sazonal da série, o de tendência ascendente e presumir que essa série não é estacionária. Porém, devemos sempre aplicar os testes de estacionariedade para termos certeza das conclusões que chegamos.

p

p

p

Page 43: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

35

GRÁFICO 7 – PASSAGEIROS DE COMPANHIAS AÉREAS INTERNACIONAIS

FONTE: Adatado de Box, Jenkins e Reinsel (2008, p. 676)

Vamos começar com o correlograma, conforme figura e quadro a seguir. Selecione o menu “Variável” e depois a opção “Correlograma”, deixando a defasagem de acordo com o que é sugerido pelo Gretl.

FIGURA 7 – CORRELOGRAMA DOS DADOS SOBRE PASSAGEIROS DECOMPANHIAS AÉREAS INTERNACIONAIS

FONTE: O autor

Page 44: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

36

Perceba que a função de autocorrelação da figura anterior vai decaindo lentamente, o que é próprio de series temporais não estacionárias, corroborando com a nossa suspeita. Quando analisamos os dados do quadro a seguir, vemos que a estatística Q, discutida anteriormente, é estatisticamente significativa para as várias defasagens calculadas, indicando que a autocorrelação em todas as defasagens não é nula, fato observado em séries temporais não estacionárias.

QUADRO 6 – PASSAGEIROS DE COMPANHIAS AÉREAS INTERNACIONAIS

FONTE: O autor

Função de autocorrelação para Passageiros***, **, * indicam significância aos níveis de 1%, 5% e 10%usando erro padrão 1/T^0,5

Defas. FAC FACP Estat. Q [p-valor]

1 0,9480 *** 0,9480 *** 132,1415 [0,000] 2 0,8756 *** -0,2294 *** 245,6462 [0,000] 3 0,8067 *** 0,0381 342,6748 [0,000] 4 0,7526 *** 0,0938 427,7387 [0,000] 5 0,7138 *** 0,0736 504,7966 [0,000] 6 0,6817 *** 0,0077 575,6019 [0,000] 7 0,6629 *** 0,1256 643,0386 [0,000] 8 0,6556 *** 0,0900 709,4845 [0,000] 9 0,6709 *** 0,2325 *** 779,5912 [0,000] 10 0,7027 *** 0,1661 ** 857,0686 [0,000] 11 0,7432 *** 0,1713 ** 944,3903 [0,000] 12 0,7604 *** -0,1354 1036,4819 [0,000] 13 0,7127 *** -0,5397 *** 1117,9917 [0,000] 14 0,6463 *** -0,0266 1185,5529 [0,000] 15 0,5859 *** 0,0908 1241,5038 [0,000] 16 0,5380 *** 0,0250 1289,0371 [0,000] 17 0,4997 *** 0,0325 1330,3811 [0,000] 18 0,4687 *** 0,0734 1367,0416 [0,000] 19 0,4499 *** 0,0484 1401,0809 [0,000] 20 0,4416 *** -0,0455 1434,1489 [0,000] 21 0,4572 *** 0,0458 1469,8818 [0,000]

Vamos agora aplicar o teste ADF, para sabermos se a série possui raiz unitária. O procedimento, apesar de simples, requer um pouco de atenção quando da parametrização do teste no Gretl.

Page 45: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

37

Comece selecionando o menu “Variável” e escolha na sequência “Testes de raiz unitária” e finalmente, “Teste de Dickey-Fuller aumentado”. Na janela que é apresentada, o primeiro item a ser observado é a ordem de defasagem para o teste ADF, ou seja, quantas vezes defasaremos o termo Δgt-i, para tornar os erros não correlacionados. Essa escolha requer a análise dos critérios de informação e por isso, você deve deixar selecionada a caixa “testar para baixo a partir da ordem máxima de defasagem”. Logo a seguir estão os critérios, AIC (Akaike), Schwarz (BIC) e estatística t. Como temos mais de 100 observações, usaremos o critério de Schwarz (BIC). A figura a seguir mostra a janela de configuração do teste.

FIGURA 8 – TESTE ADF

FONTE: O autor

As outras caixinhas a serem selecionadas são as que estão marcadas na figura anterior, ou seja, “teste sem constante”, “com constante” e “com constante e tendência”, a fim de verificar se estamos diante de um passeio aleatório sem deslocamento e sem tendência determinística, passeio aleatório com deslocamento e sem tendência determinística e passeio aleatório com deslocamento e com tendência determinística (ver equações 2.11, 2.12 e 2.13).

É interessante selecionar a opção para “mostrar resultados da regressão”, conforme conversaremos mais adiante. O quadro a seguir mostra o resultado do teste, suprimindo algumas informações conforme explicado a seguir.

Page 46: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

38

Quando configuramos o teste, selecionamos as opções teste sem constante, com constante e com constante e tendência. Por isso, a leitura deve começar pelo modelo estimado com constante e tendência, verificando se a variável tendência (time) é estatisticamente significativa. Caso não seja, descartamos esse resultado e analisamos o modelo estimado com constante e sem tendência. Se a constante nesse segundo modelo estimado é estatisticamente significativa, avaliamos o resultado desse teste ADF, caso contrário, o abandonamos e partimos para o modelo sem constante e sem tendência.

QUADRO 7 – RESULTADO DO TESTE DE RAIZ UNITÁRIA

FONTE: O autor

Teste Aumentado de Dickey-Fuller para gtestar para baixo a partir de d 13efasagens, critério BICtamanho da amostra: 130hipótese nula de raiz unitária: a = 1

com constante e tendência incluindo 13 defasagens de (1-L)g modelo: (1-L)y = b0 + b1*t + (a-1)*y(-1) + ... + e valor estimado de (a - 1): -0,189255 estatística de teste: tau_ct(1) = -2,10078 p-valor assintótico 0,5448 coeficiente de 1ª ordem para e: 0,015 diferenças defasadas: F(13, 114) = 84,428 [0,0000]

Regressão aumentada de Dickey-FullerMQO, usando as observações 1950:03-1960:12 (T = 130)Variável dependente: d_g

coeficiente erro padrão razão-t p-valor ----------------------------------------------------------- const 16,8242 6,37259 2,640 0,0094 *** g_1 −0,189255 0,0900878 −2,101 0,5448 d_g_1 −0,282575 0,116360 −2,428 0,0167 ** d_g_2 −0,0986518 0,109765 −0,8988 0,3707 d_g_3 −0,0103247 0,107427 −0,09611 0,9236 d_g_4 −0,119633 0,102278 −1,170 0,2446 d_g_5 −0,0194375 0,100067 −0,1942 0,8463 d_g_6 −0,147522 0,0920281 −1,603 0,1117 d_g_7 −0,0862825 0,0903529 −0,9550 0,3416 d_g_8 −0,253822 0,0860949 −2,948 0,0039 *** d_g_9 −0,0772300 0,0880980 −0,8766 0,3825 d_g_10 −0,244526 0,0829954 −2,946 0,0039 *** d_g_11 −0,0966961 0,0842458 −1,148 0,2535 d_g_12 0,759606 0,0808675 9,393 7,21e-016*** d_g_13 0,403763 0,0974372 4,144 6,59e-05 *** time 0,533476 0,240984 2,214 0,0288 **

AIC: 999,78 BIC: 1045,66 HQC: 1018,42

Page 47: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

39

13

Uma vez verificado que o teste ADF deve ser com constante e tendência, podemos ler o resumo do resultado que aparece no início do quadro anterior. O primeiro termo reproduzido pelo Gretl é a hipótese nula de raiz unitária: a = 1 . Na linha seguinte, ele informa que esse teste é com constante e tendência, e nos diz que incluiu 13 defasagens de (1 – L)g, apresentando na sequência uma representação do modelo estimado, que em termos matemáticos é Δgt = µ + δt + αgt-1 + Σi=1 Δgt-1 + µt.

O Gretl apresenta o valor estimado de (a – 1) = –0,189255, com estatística de teste tau_ct(1) = –2,10078, e p-valor assintótico 0,5448. Essas informações são suficientes para tirarmos nossa conclusão acerca da existência ou não de raiz unitária na série {gt}.

Como o Gretl apresenta o p-valor, não precisamos procurar em uma tabela de distribuição ADF o valor crítico da estatística τ, basta avaliar o p-valor e concluir se com esse número nós devemos aceitar ou rejeitar a hipótese nula. Um p-valor de 0,5448 leva-nos a aceitar a hipótese nula de que a = 1, ou seja, que a série apresenta raiz unitária, e, portanto, não é estacionária.

Para tornar uma série estacionária, precisamos determinar a natureza da não estacionariedade. Se a não estacionariedade for gerada pela presença de uma tendência determinística, ou seja, se a série flutuar em torno de uma tendência determinística, sem jamais se distanciar de tal tendência, basta subtrair essa tendência e teremos um componente estacionário.

Primeiro estimamos o modelo:

yt = β0 + δt + ut 2.14

Depois é só extrair a tendência fazendo:

ut = yt – β0 – δt 2.15 Ou seja, os resíduos da regressão 2.14 são estacionários, e são conhecidos

como “[...] série temporal (linearmente) sem tendência” (GUJARATI; PORTER, 2011, p. 754).

Se não for esse o caso, ou seja, se a série possuir raiz unitária, a estacionariedade é obtida mediante a diferenciação da série.

3 PROCESSOS AUTOREGRESSIVOS (AR)

Quando falamos em análise de séries temporais estacionárias e análise univariada, estamos falando da abordagem de Box e Jenkins (1970), atualizada por Box, Jenkins e Reinsel (2008). Trata-se de um procedimento com poucos passos, mas com resultados poderosos, utilizados para estimar modelos de séries temporais como:

Page 48: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

40

yt = ϕ0 + ϕ1yt-1 + ... + ϕpyt-p + ut + θ ut-1 + ... + θqut-q 2.16

Em uma forma reduzida podemos escrever 2.16 como:

yt = ϕ0 + Σi=1 ϕiyt-i + Σi=0 θi ut-i 2.17

Em 2.17 temos um modelo de séries temporais autorregressivo integrado de médias móveis, ARIMA. Para estimar um modelo deste tipo, seguimos a metodologia Box, Jenkins e Reinsel (2008), ou seja, primeiro identificamos a ordem das defasagens do processo autorregressivo (p) e de médias móveis (q), depois estimamos o modelo e verificamos se os resíduos são ruído branco. Caso os resíduos não sejam ruído branco, tentamos outro modelo alterando a ordem das defasagens p e q, e fazemos esse procedimento repetidas vezes até chegar a um modelo que seja parcimonioso e tenha resíduos que sejam ruído branco. Daí, podemos usar o modelo para prever o comportamento futuro da série em análise.

Para um processo autorregressivo de primeira ordem AR(1), teremos:

yt = ϕ0 + ϕ1yt-1 + ut 2.18

Com ut~i.i.d.(0,σ2), ou seja, é um ruído branco. Para estimar a série {yt} em 2.18, é necessário que |ϕ1| < 1, garantindo assim a estabilidade com E(yt) = . Além disso, como a variância é dada por:

var(y) = ϕ var(yt-1) + var(ut) + 2ϕ1cov(yt-1, ut) 2.19

Como ut~i.i.d., a var(yt) = var(yt-1), logo var(yt) = e cov(yt-1,ut) = 0.Dessa forma, se |ϕ| < 1, então, o efeito de um choque hoje será menor quanto

mais próximo de zero estiver |ϕ1|, ou seja, o sistema é estável ou convergente. Por outro lado, quando |ϕ| > 1, os efeitos serão crescentes, tendendo à explosão, e quando |ϕ1| = 1, o choque será permanente, refletindo-se totalmente no futuro.

Vamos simular um AR(1), com o seguinte processo gerador, sem a constante: yt = 0,87 yt-1 + ut 2.20

Para isso, abra o Gretl, no menu “Ferramentas” e “Console Gretl” digite os seguintes comandos:

p q

ϕ₀1–ϕ₁

12

nulldata 100setobs 1 1 --special-time-seriesphi = 0.87series u = normal()series y = 0y = phi * y(-1) + ugnuplot y --time-series --with-lines

Page 49: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

41

O gráfico a seguir apresenta o processo AR(1) simulado. Perceba que, por ser um processo autorregressivo de primeira ordem, yt depende do valor observado em t–1 mais um valor totalmente aleatório e as mudanças observadas em ut não tem efeito duradouro na trajetória da série, perdendo o seu efeito ao longo do tempo.

GRÁFICO 8 – PROCESSO AR(1) SIMULADO

FONTE: O autor

4 PROCESSOS DE MÉDIAS MÓVEIS (MA)

Vamos considerar agora um modelo de médias móveis, ou seja, um modelo em que

yt = ϕ0 + Σi=0 θi ut-1 2.21

Para o nosso exemplo, consideramos umm modelo MA(1), em que:

yt = ϕ0 + ut + θut-1 2.22

Onde ut é um ruído branco, e yt depende do erro contemporâneo, ut, e uma proporção do erro do período imediatamente anterior. Um processo como esse tem como média E(yt) = ϕ0 + E(ut) + θE(ut-1) = ϕ0, a variância é dada por var(yt) = E(yt–ϕ0)2 = (1 + θ2)σ2 e a covariância dada por cov(yt–ϕ0)(yt-1 – ϕ0) = σ2θ. No caso do modelo de médias móveis, independentemente do valor de θ, o processo será estacionário.

Vamos simular um processo MA(1) e para simplificar vamos supor que o processo gerador da série {yt} seja,

q

Page 50: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

42

Yt = ut + 0.6ut-1 2.23

Para isso, digite a seguinte sequência de comandos no console Gretl:

nulldata 100setobs 1 1 --special-time-seriestheta = -0.6series u = normal()series y = 0y = u + theta * u(-1)gnuplot y --time-series --with-lines

O gráfico a seguir apresenta o processo MA(1) simulado. É possível perceber claramente a estabilidade e estacionariedade da série simulada.

GRÁFICO 9 – PROCESSO MA(1) SIMULADO

FONTE: o autor

5 PROCESSOS AUTOREGRESSIVOS E DE MÉDIAS MÓVEIS (ARMA)

Se combinarmos o processo autorregressivo com o de médias móveis, teremos o chamado processo autorregressivo de médias móveis, ARMA(p,q), em que p representa a ordem do processo autorregressivo e q representa a ordem do processo de médias móveis que compõe a série temporal.

Page 51: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

43

Podemos escrever um processo ARMA(p,q) geral da seguinte forma:

yt = ϕ0 + Σi=1 ϕiYt–1 + Σj=0 ujεt–j 2.24

A estabilidade e a estacionariedade dos processos ARMA(p,q) são demonstrados por Enders (2004) e Bueno (2008), e implicam que as raízes das equações características do processo autorregressivo e do processo de médias móveis, que compõe a série, devem estar ao mesmo tempo fora do círculo unitário.

Vamos simular agora um processo ARMA(1, 1), com a seguinte característica:

1 10,87 0,6t t t ty y u u− −= + − 2.25

Abra o Gretl e escreva a sequência de comandos a seguir no Console:

nulldata 100setobs 1 1 --special-time-seriesphi = 0.87theta = -0.6series u = normal()series y = 0y = phi * y(-1) + u + theta * u(-1)gnuplot y --time-series --with-lines

O gráfico a seguir apresenta o resultado dessa simulação. Essa série {yt} apresenta as características do processo AR(1) e MA(1) simulados anteriormente. Percebe-se a estabilidade ao longo do tempo da série, em que mudanças não antecipadas não são permanentes, justamente porque geramos essa série a partir de uma equação estável, com ϕ1 < 1 para o processo AR(1), e das características discutidas anteriormente para o processo MA(1).

GRÁFICO 10 – PROCESSO ARMA(1,1) SIMULADO

FONTE: O autor

p q

Page 52: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

44

6 APLICAÇÃO DO MÉTODO BOX, JENKINS E REINSEL (2008) PARA IDENTIFICAÇÃO DO PROCESSO ARMA(p,q)

Agora que já conhecemos os processos autorregressivos, de médias móveis e a combinação de autorregressivos com médias móveis, podemos utilizar o método Box, Jenkins e Reinsel (2008) em dados econômicos a fim de identificar qual é o processo gerado de uma série particular.

O primeiro passo do método consiste na verificação da estacionariedade da série temporal em análise. Caso não seja, deve-se torná-la estacionária através da diferenciação. Para uma aplicação prática desse método, considere os dados do quadro a seguir. Trata-se do Índice de Preços ao Consumidor Amplo, IPCA, medida oficial de inflação do Brasil e parâmetro utilizado no regime de metas de inflação do Banco Central brasileiro.

QUADRO 8 – ÍNDICE DE PREÇOS AO CONSUMIDOR AMPLO, BRASIL, JANEIRODE 2005 A DEZEMBRO DE 2017

FONTE: <www.ipeadata.gov.br>. Acesso em: 9 abr. 2019.

Mês/Ano 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017

Janeiro 0,58 0,59 0,44 0,54 0,48 0,75 0,83 0,56 0,86 0,55 1,24 1,27 0,38

Fevereiro 0,59 0,41 0,44 0,49 0,55 0,78 0,80 0,45 0,60 0,69 1,22 0,90 0,33

Março 0,61 0,43 0,37 0,48 0,20 0,52 0,79 0,21 0,47 0,92 1,32 0,43 0,25

Abril 0,87 0,21 0,25 0,55 0,48 0,57 0,77 0,64 0,55 0,67 0,71 0,61 0,14

Maio 0,49 0,10 0,28 0,79 0,47 0,43 0,47 0,36 0,37 0,46 0,74 0,78 0,31

Junho -0,02 -0,21 0,28 0,74 0,36 0,00 0,15 0,08 0,26 0,40 0,79 0,35 -0,23

Julho 0,25 0,19 0,24 0,53 0,24 0,01 0,16 0,43 0,03 0,01 0,62 0,52 0,24

Agosto 0,17 0,05 0,47 0,28 0,15 0,04 0,37 0,41 0,24 0,25 0,22 0,44 0,19

Setembro 0,35 0,21 0,18 0,26 0,24 0,45 0,53 0,57 0,35 0,57 0,54 0,08 0,16

Outubro 0,75 0,33 0,30 0,45 0,28 0,75 0,43 0,59 0,57 0,42 0,82 0,26 0,42

Novembro 0,55 0,31 0,38 0,36 0,41 0,83 0,52 0,60 0,54 0,51 1,01 0,18 0,28

Dezembro 0,36 0,48 0,74 0,28 0,37 0,63 0,50 0,79 0,92 0,78 0,96 0,30 0,44

Soma 5,69 3,14 4,46 5,90 4,31 5,91 6,50 5,84 5,91 6,41 10,70 6,29 2,95

Média 0,46 0,26 0,36 0,48 0,35 0,48 0,53 0,47 0,48 0,52 0,85 0,51 0,24

Vamos utilizar essa série de dados para projetar a inflação brasileira para os quatro primeiros meses de 2018, e depois vamos comparar a nossa projeção com os valores efetivamente realizados. Se formos competentes na identificação do processo gerador da série temporal, teremos condições de fazer uma boa projeção para essa variável macroeconômica chave.

Page 53: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

45

Começamos com uma visualização do gráfico a seguir, da série do IPCA. Não é possível identificar um padrão constante de comportamento ao longo do tempo. Há momentos em que a série oscila mais e outros em que ela cresce demasiadamente. Em outro período, ela decai de forma brusca. Se compararmos com o processo de ruído branco, veremos características semelhantes, o que nos leva a pensar que essa série é estacionária.

GRÁFICO 11 – ÍNDICE DE PREÇOS AO CONSUMIDOR AMPLO, BRASIL,JANEIRO DE 2005 A DEZEMBRO DE 2017

FONTE: <www.ipeadata.gov.br>. Acesso em: 9 abr. 2019.

Porém, a simples inspeção visual de um gráfico não nos permite tirar conclusões precisas e para isso recorremos ao teste de raiz unitária, ADF. Com os dados devidamente impostados no Gretl, selecione o menu “Variável”, “Testes de raiz unitária”, “Teste de Dickey-Fuller Aumentado”. Na janela de configuração, altere o critério de informação para Schwarz (BIC), selecione as opções de teste com e sem constante, com constante e tendência, e escolha a opção de mostrar o resultado da regressão.

Quando você obtém o resultado do teste, a primeira coisa a verificar é se a variável “time” é estatisticamente significativa na última regressão da janela de resultados. Você perceberá que não rejeitamos a H0: time = 0, o que nos leva a descartar a hipótese de que se trata de um passeio aleatório em torno de uma tendência determinística. Depois analisamos se a constante, no teste com constante, é estatisticamente significativa. Neste caso, vemos que sim, o que permite que nos concentremos nessa equação. O quadro a seguir apresenta o resultado do teste ADF com constante para o IPCA.

Page 54: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

46

Só para lembrar, a hipótese nula do teste é a da existência de raiz unitária, enquanto a alternativa é de que a série é estacionária. Para uma tomada de decisão rápida, podemos olhar o p-valor destacado no quadro a seguir. Com base nesse resultado, rejeitamos a hipótese nula e, portanto, concluímos que a série é estacionária, permitindo-nos partir para o passo 2 do método Box, Jenkins e Reinsel (2008).

QUADRO 9 – RESULTADO DO TESTE ADF PARA O IPCA

FONTE: O autor

Teste Aumentado de Dickey-Fuller para IPCAtestar para baixo a partir de d 13efasagens, critério BICtamanho da amostra: 155hipótese nula de raiz unitária: a = 1

teste com constante incluindo 0 defasagens de (1-L)IPCA modelo: (1-L)y = b0 + (a-1)*y(-1) + e valor estimado de (a - 1): -0,336334 estatística de teste: tau_c(1) = -5,56758 p-valor 0,0000 coeficiente de 1ª ordem para e: 0,012

Para identificar o processo gerador da série, Box, Jenkins e Reinsel (2008), sugere a análise dos gráficos da função de autocorrelação e de autocorrelação parcial, gerados a partir do correlograma. Nesse gráfico buscaremos identificar o padrão descrito no quadro a seguir.

QUADRO 10 – PADRÕES DAS FUNÇÕES DE AUTOCORRELAÇÃO E AUTOCORRELAÇÃO PARCIAL DOS MODELOS ARMA (p,q)

FONTE: Adaptado de Gujarati e Porter (2011, p. 775) e Box, Jenkins e Reinsel (2008, p. 199)

Modelo AR(p) MA(q) ARMA(p,q)

Função de autocorrelação

Decai exponencialmente

Coeficiente da defasagem “q” é estatisticamente

significativo

Decai exponencialmente

Função de autocorrelação

parcial

Coeficiente da defasagem “p” é estatisticamente

significativo

Decai exponencialmente

Decai exponencialmente

Page 55: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

47

Implementamos o teste a partir do menu “Variável” no Gretl, selecionando a opção “Correlograma”. Como o Gretl seleciona a defasagem máxima para a série, basta dar um “ok” na janela de teste e analisar os resultados. A figura a seguir apresenta o correlograma para a série do IPCA.

FIGURA 9 – CORRELOGRAMA PARA A SÉRIE DO IPCA

FONTE: O autor

Analisamos primeiro a função de autocorrelação (FAC) na parte superior da figura e depois a função de autocorrelação parcial (FACP) na parte inferior da figura. Perceba que a FAC decai exponencialmente enquanto a única defasagem significativa na FACP é a primeira, indicando que temos em mãos um processo AR(1). Algebricamente falando, o modelo AR(1) a ser estimado será:

0 1 1t t tIPCA IPCA uφ φ −= + + 2.26

Onde uτ~i.i.d.(0,σ2), ou seja, é um ruído branco.

Sugerimos a você que pegue as séries que simulamos anteriormente, ou seja, os processos AR(1), MA(1) e ARMA(1,1) e veja o correlograma dessas séries comparando com a descrição do quadro 10, a fim de fixar esses conceitos.

Page 56: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

48

Uma vez identificado que o IPCA segue um processo AR(1), o próximo passo é estimar o modelo de regressão. Para isso, selecione no Gretl o menu “Modelo”, depois escolha “Série temporal” e na sequência escolha “ARIMA”. A figura a seguir mostra como é a janela de especificação do modelo. A primeira coisa a fazer é definir a variável dependente, e neste caso, como só temos a variável IPCA, essa é a nossa escolha.

Depois especificamos o processo ARMA(p,q), informando a ordem do AR, neste caso ele assume o valor 1, o MA assume valor zero assim como o I. Esse termo I, do ARIMA, é o grau de integração da série, ou seja, quantas vezes precisamos defasar a série para torná-la estacionária. No caso do IPCA, como ela é estacionária em nível, ele assume valor zero.

FIGURA 10 – JANELA DE ESPECIFICAÇÃO DO MODELO ARMA

FONTE: O autor

O resultado do modelo AR(1) estimado está no quadro a seguir. Note que estimamos o modelo com constante. Fizemos isso porque no teste ADF a constante foi estatisticamente significativa, e porque não haviam razões teóricas para omiti-la.

Page 57: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

49

QUADRO 11 – RESULTADO DA ESTIMAÇÃO DO AR(1) PARA A SÉRIE DO IPCA

FONTE: O autor

Funções calculadas: 22

Cálculos de gradientes: 5

Modelo 1: ARMA, usando as observações 2005:01-2017:12 (T = 156)

Estimado usando o filtro de Kalman (Máxima verossimilhança exata)

Variável dependente: IPCA

Erros padrão baseados na hessiana

coeficiente erro padrão z p-valor

---------------------------------------------------------

const 0,462592 0,0469830 9,846 7,14e-023 ***

phi_1 0,660289 0,0594239 11,11 1,10e-028 ***

Média var. dependente 0,461410 D.P. var. dependente 0,270785

Média de inovações −0,000497 D.P. das inovações 0,201813

Log da verossimilhança 28,02405 Critério de Akaike −50,04809

Critério de Schwarz −40,89852 Critério Hannan-Quinn −46,33193

Real Imaginária Módulo Frequência

-----------------------------------------------------------

AR

Raiz 1 1,5145 0,0000 1,5145 0,0000

-----------------------------------------------------------

O Gretl estima o modelo ARMA através do método de máxima verossimilhança exata. Não empregamos o método de mínimos quadrados ordinários que estávamos habituados em econometria 1. Por estar além do escopo desse manual, aos estudantes avançados no tema, nós sugerimos a leitura do Capítulo 7 do livro intitulado Time series analysis: forecasting and control de Box, Jenkins e Reinsel (2008); Capítulo 3 da obra Econometria de séries temporais de Bueno (2008) e o Capítulo 2, do livro intitulado Applied econometric time series de Enders (2004).

Como podemos ver no Quadro 11, tanto a constante quanto ϕ1 são estatisticamente significativos. Por ser um AR(1), significa que apenas a inflação do período anterior influencia a inflação presente, sendo o repasse de cerca de 66%. Mas será que o modelo estimado é estável?

O próximo passo da metodologia Box, Jenkins e Reinsel (2008) é verificar a estabilidade do modelo e fazer alguns testes de diagnóstico. Basicamente o que fazemos é:

Page 58: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

50

1) Verificamos se os coeficientes estimados são estatisticamente significativos.2) Devemos observar se ϕ1 < 1, garantindo assim a primeira condição de estabilidade

do modelo.3) A outra condição de estabilidade do modelo é a raiz característica que deve ser

maior do que um em módulo. 4) Devemos testar também os resíduos para ver se são de fato ruído branco.

A significância estatística dos coeficientes estimados já constatamos. Como ϕ1 = 0,66, ou seja, menor do que 1, garantimos a primeira condição de estabilidade. A outra condição é fácil de observar porque o Gretl gera essa informação na parte de baixo da janela de resultados, grifada no Quadro 11. Trata-se da raiz unitária que no modelo AR(1) estimado para o IPCA é igual a 1,5145, ou seja, maior do que 1, garantindo a segunda condição de estabilidade.

A verificação dos resíduos, se são autocorrelacionados, pode ser feita através da janela do resultado do modelo estimado selecionando o menu “Gráficos” e depois “Correlograma dos resíduos”. Se não forem autocorrelacionados, esperamos que todas as barras projetadas estejam dentro do intervalo de confiança.

Veja na figura a seguir que quase todas as barras estão dentro do intervalo de confiança, com apenas duas exceções, uma na defasagem 12 e outra na defasagem 18. Se olharmos o quadro a seguir e analisarmos a estatística Q, veremos que, a partir da nona defasagem, a estatística Q deixa de ser estatisticamente igual a zero com 10% de significância estatística e a partir da décima segunda defasagem, os coeficientes estimados, em conjunto, são estatisticamente significativos, violando a hipótese de não autocorrelação.

Nesse caso, como alerta Bueno (2008, p. 68), “[...] há informação ainda não captada pelo econometrista, que pode gerar previsões pobres”. Quais seriam essas informações? Para responder a essa pergunta, precisaríamos fazer uma série de testes e tratamento dos dados utilizados, como por exemplo a aplicação de algum filtro, HP, X12 ARIMA, Análise Tramo, entre outros.

Page 59: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

51

FIGURA 11 – CORRELOGRAMA DOS RESÍDUOS

FONTE: O autor

A especificação do modelo também pode ser investigada. Podemos estimar várias especificações para o ARMA(p,q), como por exemplo um AR(2), MA(1), MA(2), ARMA(1,1), ARMA(2,1), ou até mesmo um ARIMA(1,1,1), entre outras tantas especificações. A regra aqui é encontrar um desses modelos que passe nos testes de diagnóstico, seja estável e produza erros que são ruídos branco e não são autocorrelacionados.

Page 60: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

52

QUADRO 12 – FUNÇÃO DE AUTOCORRELAÇÃO DOS RESÍDUOS

Função de autocorrelação dos resíduos***, **, * indicam significância aos níveis de 1%, 5% e 10%usando erro padrão 1/T^0,5

Defas. FAC FACP Estat. Q [p-valor]

1 0,0158 0,0158 2 -0,0005 -0,0007 0,0399 [0,842] 3 0,1088 0,1089 1,9477 [0,378] 4 -0,0861 -0,0907 3,1508 [0,369] 5 -0,1316 -0,1302 5,9760 [0,201] 6 0,0111 0,0042 5,9963 [0,307] 7 -0,1534 * -0,1382 * 9,8880 [0,129] 8 -0,1121 -0,0921 11,9824 [0,101] 9 0,0984 0,0822 13,6055 [0,093] 10 0,0892 0,1088 14,9495 [0,092] 11 0,1296 0,1374 * 17,8028 [0,058] 12 0,2705 *** 0,2236 *** 30,3266 [0,001] 13 0,0333 0,0168 30,5181 [0,002] 14 -0,0225 -0,0369 30,6061 [0,004] 15 0,0699 0,0287 31,4610 [0,005] 16 -0,1015 -0,0499 33,2734 [0,004] 17 -0,0832 0,0064 34,5012 [0,005] 18 -0,2150 *** -0,2147 *** 42,7551 [0,001] 19 -0,1106 -0,0500 44,9562 [0,000] 20 -0,0386 -0,0196 45,2261 [0,001] 21 -0,0278 -0,0912 45,3667 [0,001]

FONTE: O autor

A última análise é de normalidade dos resíduos, e para isso nós selecionamos o menu “Testes” na janela de resultado da estimação e depois escolhemos “Normalidade dos resíduos”. O resultado está na figura a seguir.

O resultado do teste indica que os resíduos são distribuídos como normal, o que é uma ótima notícia. Chegamos a essa conclusão analisando a estatística de teste para normalidade, Qui-quadrado = 0,442. Entre colchetes, está o p-valor associado a uma hipótese nula de normalidade. Neste caso, não rejeitamos essa hipótese, o que nos leva a concluir que de fato os resíduos são distribuídos como normal.

Page 61: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

53

FIGURA 12 – TESTE DE NORMALIDADE DOS RESÍDUOS

FONTE: O autor

Terminados os testes estatísticos, a próxima etapa é o uso do modelo para fins de previsão. Muitas vezes os pesquisadores utilizam uma suba mostra menor do que a coletada, deixando algumas observações para se fazer a previsão dentro da amostra. Em outras vezes, como no nosso caso, utiliza-se o modelo para projetar os valores futuros, fora da amostra.

Para fazer a previsão referente aos quatro primeiros meses de 2018, selecionamos o menu “Análise” a partir da janela de resultado do modelo AR(1) estimado, e depois escolhemos “Previsões”. O Gretl abrirá uma janela informando que “Não existem observações fora da amostra para previsão”. Ele também permitirá acrescentar novas observações. Neste caso, informe o número 4 no campo de “Número de observações a acrescentar” e clique em “OK” para confirmar.

A figura a seguir apresenta a janela de previsão do Gretl. Basta manter as opções previamente selecionadas e confirmar ou, caso queira fazer algum ajuste, você poderá escolher o botão “Ajuda” para obter mais detalhes sobre essa janela.

Page 62: EconomEtria ii - UNIASSELVI

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

54

FIGURA 13 – JANELA DE PREVISÃO DO GRETL

FONTE: O autor

FONTE: O autor

O resultado da previsão está no gráfico e quadro a seguir, em que omitimos parte das observações por questão de espaço. Percebam no quadro a seguir que há uma previsão, que podemos chamar de cenário base, e um intervalo de confiança no qual os limites inferior e superior podem ser chamados de cenário otimista e o outro de pessimista.

GRÁFICO 12 – PREVISÃO PARA O IPCA NOS QUATRO PRIMEIROS MESES DE 2018

Page 63: EconomEtria ii - UNIASSELVI

TÓPICO 2 | ANÁLISE UNIVARIADA

55

A título de comparação ou de capacidade de previsão do nosso modelo, nos primeiros quatro meses de 2018, a inflação medida pelo IPCA registrou em janeiro 0,29%, em fevereiro 0,32%, em março 0,09% e em abril 0,22%. Nos quatro meses projetados, o IPCA ficou mais próximo do cenário base do que dos limites estabelecidos pelo intervalo de confiança, exceto em março que esteve mais próximo do limite inferior do intervalo do que do valor projetado.

QUADRO 13 – PREVISÃO PARA O IPCA NOS QUATRO PRIMEIROS MESES DE 2018

FONTE: O autor

Para intervalos de confiança de 95%, z(0,025) = 1,96

IPCA previsão erro padrão intervalo a 95%

2011:08 0,37 0,262011:09 0,53 0,402011:10 0,43 0,512011:11 0,52 0,442011:12 0,50 0,50...2017:09 0,16 0,282017:10 0,42 0,262017:11 0,28 0,432017:12 0,44 0,342018:01 0,45 0,202 0,05 - 0,842018:02 0,45 0,242 -0,02 - 0,932018:03 0,46 0,257 -0,05 - 0,962018:04 0,46 0,264 -0,06 - 0,98

Page 64: EconomEtria ii - UNIASSELVI

56

RESUMO DO TÓPICO 2

Nesse tópico, você aprendeu que:

• Na análise univariada, usamos a metodologia desenvolvida e aprimorada por Box, Jenkins e Reinsel (2008), que consiste em um procedimento em que verificamos a estacionariedade da série de dados, depois se busca identificar a equação que melhor descreve o comportamento temporal da série, estimamos o modelo, empregamos testes de diagnóstico e aplicamos o modelo para fins de previsão e controle.

• O teste de estacionariedade mais empregado na literatura é o Dickey e Fuller Aumentado, ADF, cuja hipótese nula é da existência de raiz unitária.

• Uma série temporal pode seguir um processo AutoRegressivo, AR, de Médias Móveis, MA, ou um processo AutoRegressivo e de Médias Móveis, ARMA.

• Para identificar qual é o processo que gerou determinada série, recorremos ao correlograma, analisando o gráfico da função de autocorrelação e o gráfico da função de autocorrelação parcial.

• Após estimar o modelo, devermos aplicar testes de diagnósticos, tais como a verificação da significância estatística dos coeficientes estimados, verificamos se ϕ1 < 1 e se a raiz característica é maior do que um em módulo, garantindo assim a estabilidade do modelo. Finalmente, testamos os resíduos para ver se são de fato ruído branco.

Page 65: EconomEtria ii - UNIASSELVI

57

1 A abordagem padrão para análise de séries temporais estacionárias é a metodologia Box-Jenkins (1970). Essa abordagem permite que valores futuros de uma série sejam previstos tomando por base apenas seus valores presentes e passados. O primeiro passo dessa abordagem consiste em identificar as ordens p e q do modelo.

Com base nessa metodologia, relacione a coluna da direita com a coluna da esquerda:

2 Com base na metodologia Box-Jenkins, responda às questões a seguir:

a) Raiz unitária: com base em uma simulação contendo 300 observações, gerou-se uma série temporal Yt. O teste ADF foi rodado sobre a série Yt a fim de apurar se há problemas de raiz unitária nessa série. O resultado apurado foi o seguinte:

Com base no resultado do teste ADF, informe se a série é estacionária.

Teste Aumentado de Dickey-Fuller para Yhipótese nula de raiz unitária: a = 1

teste sem constante estatística de teste: tau_nc(1) = -8,46556 p-valor 0,0000

Regressão de Dickey-FullerMQO, usando as observações 2-300 (T = 299)Variável dependente: d_Y

coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- Y_1 −0,387829 0,0458126 −8,466 9,02e-015 ***

AUTOATIVIDADE

1) ( )

Função de autocorrelação: truncada na defasagem q.

Função de autocorrelação parcial: declina exponencialmente.

2) ( ) ARMA (1, 1)

3) ( ) MA (1)

4) Modelo AR(p) ( ) AR (1)

5) Modelo MA(q) ( )

Função de autocorrelação: declina exponencialmente.

Função de autocorrelação parcial: truncada na defasagem p.

1t t tY c Yφ ε−= + +

1t t tY µ ε θε −= + +

1 1 1 1t t t tY c Yφ θ ε ε− −= + + +

Page 66: EconomEtria ii - UNIASSELVI

58

b) Identificação da ordem do processo ARMA(p,q): outra série temporal foi gerada, dessa vez com 200 observações. A série Xt apresentou o seguinte correlograma:

Com base no correlograma acima, identifique qual o processo ARMA(p,q) gerou a série Xt e justifique a sua resposta.

c) Uma série Zt foi gerada através de uma simulação. Verificou-se que a série não tem problemas de raiz unitária e que foi gerada através de um processo AR(1).

Com base nessa série, estimou-se o modelo AR(1), cujo resultado encontra-se a seguir:

Funções calculadas: 18Cálculos de gradientes: 6

Modelo 1: ARMA, usando as observações 1-500Estimado usando o filtro de Kalman (Máxima verossimilhança exata)Variável dependente: ZErros padrão baseados na hessiana

coeficiente erro padrão z p-valor ---------------------------------------------------------- const −0,0158780 0,132509 −0,1198 0,9046 phi_1 0,682088 0,0325622 20,95 1,99e-097 ***

Média var. dependente −0,017399 D.P. var. dependente 1,297107Média de inovações −0,000022 D.P. das inovações 0,945999Log da verossimilhança −682,0256 Critério de Akaike 1370,051Critério de Schwarz 1382,695 Critério Hannan-Quinn 1375,013

Real Imaginária Módulo Frequência ----------------------------------------------------------- AR Raiz 1 1,4661 0,0000 1,4661 0,0000 -----------------------------------------------------------

Page 67: EconomEtria ii - UNIASSELVI

59

Em relação às condições de estabilidade, informe se o modelo AR(1) estimado é estável. Para isso, considere o resultado do modelo estimado e as seguintes informações:

Teste da normalidade dos resíduos -Hipótese nula: o erro tem distribuição NormalEstatística de teste: Qui-quadrado(2) = 2,02159 com p-valor = 0,36393

Page 68: EconomEtria ii - UNIASSELVI

60

Page 69: EconomEtria ii - UNIASSELVI

61

TÓPICO 3

ANÁLISE MULTIVARIADA

UNIDADE 1

1 INTRODUÇÃO

Quando estimamos relações entre variáveis com base em dados de séries temporais, precisamos verificar se as séries são estacionárias em nível, ou se será necessário diferenciar a série para torná-la estacionária.

No Tópico 3 da Unidade 1, veremos que estimar relações econométricas entre séries não estacionárias pode gerar o fenômeno da regressão espúria, ocasião na qual verificamos uma relação puramente estatística entre as variáveis, sem haver de fato sentido econômico.

Veremos também que há certas situações em que ao estimar uma regressão entre séries não estacionárias gera um resultado válido. É o caso das séries cointegradas, quando temos uma relação estável de longo prazo entre as variáveis.

Finalizaremos este tópico e a Unidade 1 com os modelos VAR, que ganharam grande impulso a partir de 1980, e que até hoje vêm sendo utilizados por muitos bancos centrais ao redor do mundo para prever o comportamento de variáveis macroeconômicas chaves. O relatório de inflação publicado pelo Banco Central do Brasil em junho de 2004 divulgou pela primeira vez os modelos VAR utilizados pelo BACEN para previsão da inflação. Teremos a oportunidade de estudar o funcionamento dessa modelagem que é de grande utilidade para quem pretende aprofundar-se nos estudos sobre políticas monetária e fiscal.

2 COINTEGRAÇÃO

Na análise univariada de séries temporais, para determinar o processo gerador de uma série particular, dissemos que era necessário que essa série fosse estacionária. Caso isso não ocorresse, deveríamos diferenciá-la a fim de torná-la estacionária. Naquele momento, estávamos a fim de encontrar uma equação capaz de modelar e reproduzir o comportamento dessa série específica.

Sabemos, porém, que há diversos fatores que afetam a trajetória de uma série econômica, como por exemplo a inflação, que é influenciada pela expectativa a respeito do seu comportamento futuro, a taxa real de juros, o hiato do produto e taxa de desemprego.

Page 70: EconomEtria ii - UNIASSELVI

62

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

A fim de evitar uma relação espúria entre duas variáveis, devemos verificar se elas são estacionárias antes de estimar uma regressão. Caso não sejam, as diferenciamos e então rodamos a regressão estabelecendo uma relação estatística entre elas. Se elas forem cointegradas, não precisamos diferenciar as séries, basta estimar a regressão, estabelecendo uma relação de longo prazo entre as variáveis. Chamamos isso de cointegração, conforme definido por Engle e Granger (1987).

A ideia da cointegração está relacionada ao movimento conjunto das séries ao longo do tempo, em torno de uma tendência estocástica. É como se houvesse um elo entre as duas séries não estacionárias que proporcionasse um equilíbrio de longo prazo entre elas.

Para entender melhor, suponha duas séries temporais {yt} e {xt}, e suponha que ambas sejam l(1), ou seja, possuem raiz unitária em nível e após diferenciar uma vez se tornam estacionárias. Se rodarmos uma regressão entre essas duas variáveis em nível, corremos o risco de gerar um resultado espúrio. Porém, se os resíduos resultantes da regressão forem l(0), estacionários em nível, dizemos que as duas séries cointegram e possuem uma relação estável de longo prazo.

Engle e Granger (1987) estabeleceram um teste para verificar a existência de cointegração entre séries temporais, seguindo um procedimento simples de apenas três passos. O primeiro deles consiste em verificar o grau de integração das séries, ou seja, verificamos se elas são l(1). O segundo passo é estimar uma relação de longo prazo, rodando a regressão com as variáveis em nível e o terceiro passo consiste em aplicar o teste ADF nos resíduos. Assim, H0: raiz unitária para os resíduos equivale a uma hipótese nula de não existência de cointegração entre as variáveis.

Vamos a um exemplo prático para entender melhor o conceito e sua aplicação. Considere os dados do quadro a seguir, obtidos no site do Ipeadata <www.ipeadata.gov.br>. O período escolhido vai do primeiro trimestre de 2006 até o terceiro trimestre de 2017, totalizando 87 observações. Para a variável dependente, usamos o consumo final das famílias, em R$ milhões. Para a variável explicativa, optamos por uma proxy da renda e neste caso escolhemos o PIB a preços de mercado, em R$ milhões.

Page 71: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

63

QUADRO 14 – CONSUMO E RENDA, BRASIL, 1º TRIMESTRE 1996ATÉ 3º TRIMESTRE 2017

FONTE: <www.ipeadata.gov.br>. Acesso em: 9 abr. 2019.

Período Consumo Renda Período Consumo Renda Período Consumo Renda1996 T1 125.685 189.323 2003 T2 260.277 418.987 2010 T3 596.732 997.9351996 T2 132.511 204.611 2003 T3 267.445 439.350 2010 T4 628.475 1.057.3701996 T3 142.658 221.513 2003 T4 277.306 462.372 2011 T1 623.585 1.016.5301996 T4 156.087 239.316 2004 T1 274.159 444.783 2011 T2 648.649 1.086.7121997 T1 147.808 219.117 2004 T2 284.833 481.795 2011 T3 668.612 1.112.3341997 T2 154.447 232.890 2004 T3 301.881 505.252 2011 T4 696.969 1.160.8061997 T3 157.598 246.178 2004 T4 317.821 525.920 2012 T1 694.702 1.129.4781997 T4 161.954 253.904 2005 T1 308.544 499.710 2012 T2 718.127 1.183.1301998 T1 157.103 235.701 2005 T2 321.752 535.557 2012 T3 753.551 1.230.4481998 T2 159.194 251.936 2005 T3 332.896 552.859 2012 T4 790.454 1.271.7031998 T3 163.447 258.043 2005 T4 350.104 582.458 2013 T1 777.708 1.241.6001998 T4 163.187 256.671 2006 T1 345.002 554.270 2013 T2 805.980 1.322.5671999 T1 164.893 250.668 2006 T2 355.817 581.977 2013 T3 833.145 1.354.1271999 T2 170.252 268.709 2006 T3 368.734 617.848 2013 T4 873.589 1.413.3241999 T3 178.811 274.126 2006 T4 386.663 655.355 2014 T1 873.851 1.386.0741999 T4 189.576 294.208 2007 T1 384.999 631.423 2014 T2 888.412 1.422.3742000 T1 176.025 276.927 2007 T2 400.751 670.655 2014 T3 912.055 1.462.1112000 T2 189.996 292.789 2007 T3 410.354 691.846 2014 T4 964.086 1.508.3942000 T3 200.012 308.896 2007 T4 432.652 726.339 2015 T1 936.462 1.456.5882000 T4 208.493 320.481 2008 T1 433.753 712.055 2015 T2 938.505 1.479.9942001 T1 203.369 312.470 2008 T2 456.473 769.525 2015 T3 959.604 1.508.1882001 T2 210.284 323.724 2008 T3 480.468 812.603 2015 T4 1.000.621 1.551.0162001 T3 211.486 332.524 2008 T4 486.816 815.620 2016 T1 969.945 1.497.5692001 T4 218.362 347.038 2009 T1 474.264 756.127 2016 T2 982.033 1.555.7832002 T1 215.913 342.297 2009 T2 504.220 803.578 2016 T3 1.010.775 1.574.4702002 T2 225.796 367.363 2009 T3 534.397 852.843 2016 T4 1.044.578 1.631.4062002 T3 233.655 379.795 2009 T4 552.152 920.491 2017 T1 1.001.845 1.585.0392002 T4 246.172 399.333 2010 T1 546.392 886.397 2017 T2 1.021.076 1.630.9402003 T1 257.432 397.242 2010 T2 568.567 944.145 2017 T3 1.048.827 1.641.368

A ideia é estimar o seguinte modelo de regressão:

Consumot = β1 + β2Rendat + ut 3.1

Estamos supondo que ut seja uma variável aleatória distribuída como normal, com média zero e variância constante.

Page 72: EconomEtria ii - UNIASSELVI

64

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

O gráfico a seguir mostra a trajetória temporal dessas duas séries. Observe que elas parecem caminhar na mesma direção seguindo alguma certa tendência conjunta. Aparentemente, as duas variáveis são correlacionadas, no sentido de que o movimento de uma afeta o movimento da outra. Por outro lado, antes de qualquer decisão acerca da relação entre elas, é preciso avaliar se de fato há um componente de equilíbrio de longo prazo nessa relação ou se o que vemos no gráfico a seguir não passa de mero comportamento coincidente.

GRÁFICO 13 – CONSUMO E RENDA, BRASIL, 1º TRIMESTRE 1996ATÉ 3º TRIMESTRE 2017

FONTE: <www.ipeadata.gov.br>. Acesso em: 9 abr. 2019.

O teste de Engle e Granger (1987) requer uma análise em três procedimentos conforme comentado anteriormente. Para nossa felicidade o Gretl inclui uma rotina pronta do teste, economizando um bom tempo, abrindo espaço para nos dedicarmos mais à análise e interpretação dos resultados.

Para proceder com o teste, escolha no Gretl o menu “Modelo”, depois “Série temporal”, na sequência selecione “Multivariado” e escolha “Teste de cointegração (Engle-Granger)”. A figura a seguir mostra a janela de configuração do teste. Deixe que o Gretl sugira a ordem de defasagem e marque a opção “Testar para baixo a partir da defasagem de maior ordem”, e faça o teste com constante (a menos que haja razões teóricas suficientemente fortes para que a regressão seja estimada sem a constante). O resultado do teste está nos quadros 1, 2 e 3. Optei por apresentar o resultado dessa forma para poder discutir cada passo envolvido.

Page 73: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

65

FIGURA 14 – TESTE DE COINTEGRAÇÃO DE ENGLE E GRANGER (1987)

FONTE: O autor

No Quadro 15 seguir temos o teste de estacionariedade das séries. O Gretl emprega o teste ADF em cada variável. Perceba pelo resultado obtido que tanto o consumo quanto a renda possuem raiz unitária. Dessa forma, a menos que sejam cointegradas, regredir o consumo contra a renda proporcionará um resultado espúrio.

O Quadro 16 apresenta a regressão de cointegração, ou a relação de longo prazo entre a variável dependente e a variável explicativa. Veja que a constante tem sinal negativo, o que não faz o menor sentido econômico, mas também não é estatisticamente significativo, enquanto o coeficiente angular é estatisticamente significativo e seu valor indica uma propensão marginal a consumir de longo prazo de 0,6279.

Page 74: EconomEtria ii - UNIASSELVI

66

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

QUADRO 15 – TESTE DE RAIZ UNITÁRIA NAS VARIÁVEIS

FONTE: o autor

Passo 1: teste para uma raiz unitária em Consumo

Teste Aumentado de Dickey-Fuller para Consumotestar para baixo a partir de d 4efasagens, critério AICtamanho da amostra: 82hipótese nula de raiz unitária: a = 1

teste com constante incluindo 4 defasagens de(1-L)Consumo modelo:(1-L)y = b0 + (a-1)*y(-1) + ... + e valor estimado de (a - 1): 0,000282356 estatística de teste: tau_c(1) = 0,0592453 p-valor assintótico 0,9626 coeficiente de 1ª ordem para e: 0,012 diferenças defasadas: F(4, 76) = 50,881 [0,0000]

Passo 2: teste para uma raiz unitária em Renda

Teste Aumentado de Dickey-Fuller para Rendatestar para baixo a partir de d 4efasagens, critério AICtamanho da amostra: 82hipótese nula de raiz unitária: a = 1

teste com constante incluindo 4 defasagens de (1-L)Renda modelo: (1-L)y = b0 + (a-1)*y(-1) + ... + e valor estimado de (a - 1): 0,00349805 estatística de teste: tau_c(1) = 0,694969 p-valor assintótico 0,9921 coeficiente de 1ª ordem para e: 0,096 diferenças defasadas: F(4, 76) = 60,033 [0,0000]

Finalmente, o Quadro 17 apresenta o resultado do teste de raiz unitária para os resíduos da regressão de cointegração.

Page 75: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

67

QUADRO 16 – REGRESSÃO DE COINTEGRAÇÃO ENTRE CONSUMO E RENDA

FONTE: O autor

Passo 3: regressão de cointegração

Regressão de cointegração -MQO, usando as observações 1996:1-2017:3 (T = 87)Variável dependente: Consumo

coeficiente erro padrão razão-t p-valor ------------------------------------------------------------- const −4902,52 3041,04 −1,612 0,1106 Renda 0,627914 0,00338398 185,6 1,18e-112 ***

Média var. dependente 475915,5 D.P. var. dependente 297417,7Soma resíd. quadrados 1,87e+10 E.P. da regressão 14845,96R-quadrado 0,997537 R-quadrado ajustado 0,997508Log da verossimilhança −958,1130 Critério de Akaike 1920,226Critério de Schwarz 1925,158 Critério Hannan-Quinn 1922,212rô 0,774641 Durbin-Watson 0,459036

Quero chamar sua atenção para a parte final do resultado do teste de Engle e Granger. O Gretl nos indica como fazer a interpretação dos resultados obtidos e está destacado em negrito no Quadro 17.

QUADRO 17 – TESTE DE RAIZ UNITÁRIA PARA OS RESÍDUOSDA REGRESSÃO DE COINTEGRAÇÃO

FONTE: O autor

Passo 4: teste para uma raiz unitária em uhat

Teste Aumentado de Dickey-Fuller para uhattestar para baixo a partir de d 4efasagens, critério AICtamanho da amostra: 82hipótese nula de raiz unitária: a = 1

modelo: (1-L)y = (a-1)*y(-1) + ... + e valor estimado de (a - 1): -0,133621 estatística de teste: tau_c(2) = -2,10889 p-valor assintótico 0,4709 coeficiente de 1ª ordem para e: 0,107 diferenças defasadas: F(4, 77) = 15,654 [0,0000]

Existe evidência de uma relação de cointegração se:(a) A hipótese de raiz unitária não é rejeitada para as variáveis individuais e;(b) A hipótese de raiz unitária é rejeitada para os resíduos (uhat) da regressão de cointegração.

Page 76: EconomEtria ii - UNIASSELVI

68

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

Notem que há duas condições para haver cointegração. A primeira delas é haver raiz unitária para as variáveis em nível e a segunda é que os resíduos não possuam raiz unitária. No nosso exemplo, os resíduos da regressão de cointegração possuem raiz unitária, portanto as séries não cointegram, ou seja, o resultado de uma regressão entre essas variáveis sem o devido tratamento é espúrio.

Por que chegamos a esse resultado se faz todo o sentido econômico haver uma relação entre essas variáveis? Volte ao Gráfico 13 e observe o forte componente sazonal das séries. Obviamente não podemos desprezar esse fato. Quando nos deparamos com uma situação como essa, a saída pode ser aplicar um filtro nas séries de dados, afim de remover o componente sazonal.

Falamos sobre o filtro HP no Tópico 1 e o aplicaremos nas séries de consumo e renda, a fim de remover esse componente sazonal. Ao utilizar o filtro proposto por Hodrick e Prescott (1997), queremos estimar a tendência de longo prazo da série. Com isso, supomos que as séries são formadas por uma tendência e um elemento estacionário. Fazemos isso aplicando o seguinte modelo na série de consumo e da renda:

Σt=1 (yt – gt)2 + λ Σt=2[(gt+1–gt) – (gt – gt–1)]2 3.2

Para implementar o filtro no Gretl, selecionamos o menu “Variável”, depois “Filtro” e seleciona “Hodrick-Prescott”. A figura a seguir apresenta a janela de configuração do filtro. A primeira definição é para o valor do λ da equação 3.2. Hodrick e Prescott (1997) sugerem o valor de 1.600, que é assumido como padrão pelo Gretl. Para aplicações mais avançadas, sugerimos a leitura do artigo original e a busca por outras fontes derivadas daquele trabalho.

FIGURA 15 – CONFIGURAÇÃO DO FILTRO HP

FONTE: O autor

Page 77: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

69

Você pode selecionar todas as outras caixas dessa janela por curiosidade a fim de verificar o que elas geram. Para o nosso trabalho nos interessa apenas a opção “Salvar a série suavizada como”. Faça o mesmo procedimento para as duas séries, consumo e renda, e depois aplique o teste de Engle e Granger (1987).

O gráfico a seguir mostra as séries originais e com filtro, enquanto os quadros 4, 5 e 6 apresentam o resultado do teste de Engle e Granger (1987).

GRÁFICO 14 – SÉRIES DE CONSUMO E RENDA COM APLICAÇÃO DO FILTRO HP

FONTE: O autor

Não podemos rejeitar a hipótese de raiz unitária para ambas as séries após a aplicação do filtro HP. Com isso, o primeiro passo do teste de Engle e Granger está cumprido.

Page 78: EconomEtria ii - UNIASSELVI

70

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

QUADRO 18 – TESTE DE RAIZ UNITÁRIA NAS VARIÁVEIS

FONTE: O autor

Passo 1: teste para uma raiz unitária em hpt_Consumo

Teste Aumentado de Dickey-Fuller para hpt_Consumotestar para baixo a partir de d 4efasagens, critério AICtamanho da amostra: 83hipótese nula de raiz unitária: a = 1

teste com constante incluindo 3 defasagens de (1-L)hpt_Consumo modelo: (1-L)y = b0 + (a-1)*y(-1) + ... + e valor estimado de (a - 1): -2,72411e-005 estatística de teste: tau_c(1) = -1,58746 p-valor assintótico 0,489 coeficiente de 1ª ordem para e: -0,000 diferenças defasadas: F(3, 78) = 5489598,022 [0,0000]

Passo 2: teste para uma raiz unitária em hpt_Renda

Teste Aumentado de Dickey-Fuller para hpt_Rendatestar para baixo a partir de d 4efasagens, critério AICtamanho da amostra: 83hipótese nula de raiz unitária: a = 1

teste com constante incluindo 3 defasagens de (1-L)hpt_Renda modelo: (1-L)y = b0 + (a-1)*y(-1) + ... + e valor estimado de (a - 1): -1,72421e-005 estatística de teste: tau_c(1) = -1,36179 p-valor assintótico 0,6026 coeficiente de 1ª ordem para e: -0,004 diferenças defasadas: F(3, 78) = 3810706,423 [0,0000]

O quadro a seguir mostra o resultado da regressão de cointegração. Como podemos ver, a constante continua com o sinal errado, porém agora ela é estatisticamente significativa ao nível de 5%. A propensão marginal a consumir também é significativa e um pouco maior do que antes da aplicação do filtro.

Page 79: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

71

FONTE: O autor

QUADRO 19 – REGRESSÃO DE COINTEGRAÇÃO ENTRE CONSUMO E RENDA

Passo 3: regressão de cointegração

Regressão de cointegração -MQO, usando as observações 1996:1-2017:3 (T = 87)Variável dependente: hpt_Consumo

coeficiente erro padrão razão-t p-valor -------------------------------------------------------------- const −5196,09 2385,24 −2,178 0,0321 ** hpt_Renda 0,628297 0,00265608 236,6 1,33e-121 ***

Média var. dependente 475915,5 D.P. var. dependente 296702,3Soma resíd. quadrados 1,15e+10 E.P. da regressão 11622,95R-quadrado 0,998483 R-quadrado ajustado 0,998465Log da verossimilhança −936,8201 Critério de Akaike 1877,640Critério de Schwarz 1882,572 Critério Hannan-Quinn 1879,626rô 0,996528 Durbin-Watson 0,007310

O quadro a seguir apresenta o resultado do teste de raiz unitária para os resíduos da regressão de cointegração. Ao nível de 10% de significância, podemos rejeitar a hipótese nula de raiz unitária para os resíduos, aceitando a hipótese da existência de uma relação estável de longo prazo entre essas variáveis, ou seja, elas cointegram.

QUADRO 20 – TESTE DE RAIZ UNITÁRIA PARA OS RESÍDUOSDA REGRESSÃO DE COINTEGRAÇÃO

FONTE: O autor

Passo 4: teste para uma raiz unitária em uhat

Teste Aumentado de Dickey-Fuller para uhattestar para baixo a partir de d 4efasagens, critério AICtamanho da amostra: 83hipótese nula de raiz unitária: a = 1

modelo: (1-L)y = (a-1)*y(-1) + ... + e valor estimado de (a - 1): -0,000270325 estatística de teste: tau_c(2) = -3,29189 p-valor assintótico 0,0559 coeficiente de 1ª ordem para e: 0,095 diferenças defasadas: F(3, 79) = 1378987,634 [0,0000]

Existe evidência de uma relação de cointegração se:(a) A hipótese de raiz unitária não é rejeitada para as variáveis individuais e;(b) A hipótese de raiz unitária é rejeitada para os resíduos (uhat) da regressão de cointegração.

Page 80: EconomEtria ii - UNIASSELVI

72

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

Se duas variáveis são cointegrados, podemos dizer que deve existir uma relação de longo prazo, ou de equilíbrio entre elas. No entanto, no curto prazo, essa relação também será de equilíbrio? Vamos simular duas séries temporais de forma que sejam cointegradas para ver o que acontece com a relação de equilíbrio no curto prazo. Para isso, digite os seguintes comandos no Gretl:

nulldata 300setobs 1 1 --time-seriesseries e = normal(0,9)series Z = 0Z = Z(-1) + eseries u = normal(0,1)series Y = 0Y = 0.4*Y(-1) + Z + useries v = normal(0,4)series X = 0X = 0.4*X(-1) + Z + v

Você poderá verificar através do teste de Engle e Granger (1987) que essas duas séries são cointegradas, estabelecendo um equilíbrio de longo prazo. Quando temos uma situação assim, de cointegração, podemos aplicar o teorema de representação de Granger, que diz que “[...] se duas variáveis Y e X são cointegradas, a relação entre as duas pode ser expressa como um mecanismo de correção de erro” (GUJARATI; PORTER, 2011, p. 758).

Para verificar se o teorema é válido, estimamos a regressão:

Yt = β1 + β2Xt + ut 3.3

Salvamos os resíduos, ût, defasamos um período e estimamos a equação em diferenças 3.4.

∆Yt = α0 + α1ΔXt + α2ût-1 + εt 3.4

Em 3.4 temos o chamado mecanismo de correção de erros, em que os resíduos estimados por 3.3 e inseridos em 3.4 representam o termo de erro de equilíbrio. Assim, caso as variáveis Yt e Xt sejam cointegradas, â2,que mede a velocidade do ajustamento, será negativo e estatisticamente significativo.

Como eu construí as variáveis Yt e Xt de forma a serem cointegradas, vou deixar para você fazer o teste de Engle e Granger (1987) e certificar-se que as séries simuladas são de fato cointegradas.

Após confirmar a existência de cointegração entre as séries, o próximo passo é estimar 3.3 por Mínimos Quadrados Ordinários e salvar os resíduos. O procedimento de estimação você aprendeu em Econometria 1 e os resultados se encontram no quadro a seguir.

Page 81: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

73

QUADRO 21 – RESULTADO DA ESTIMAÇÃO DO MODELO 3.3 POR MQO

FONTE: O autor

Modelo 1: MQO, usando as observações 1-300Variável dependente: Y

coeficiente erro padrão razão-t p-valor --------------------------------------------------------- const −0,353003 0,667671 −0,5287 0,5974 X 0,999917 0,00219879 454,8 0,0000 ***

Média var. dependente 278,5518 D.P. var. dependente 120,2958Soma resíd. quadrados 6225,924 E.P. da regressão 4,570816R-quadrado 0,998561 R-quadrado ajustado 0,998556F(1, 298) 206804,0 P-valor(F) 0,000000Log da verossimilhança −880,5857 Critério de Akaike 1765,171Critério de Schwarz 1772,579 Critério Hannan-Quinn 1768,136rô 0,426504 Durbin-Watson 1,146928

A constante não é estatisticamente significativa e o coeficiente angular é muito próximo de 1 e estatisticamente diferente de zero. Apesar de termos problemas de autocorrelação de primeira ordem, como podemos ver pela estatística de Durbin-Watson, vamos ignorar esse problema no presente exercício, passando para o próximo passo.

Devemos salvar a série de resíduos estimados, fazendo ût = Yt – β1 – β2Xt, ou, através do Gretl, na janela do modelo estimado, você seleciona o menu “Salvar” e depois “Resíduos”. O Gretl gerará uma série com o nome “uhat1”, chamando de “resíduo do modelo 1”.

Para estimar o mecanismo de correção de erros, modelo 3.4, devemos tirar a primeira diferença das séries Yt e Xt. Para isso, na tela inicial do Gretl você seleciona cada uma das variáveis, escolhe o menu “Acrescentar” e depois escolhe “Primeiras diferenças das variáveis selecionadas”. Feito isso você deve selecionar o menu “Modelo” e depois “Mínimos quadrados ordinários”. A variável dependente agora é d_Y e a variável explicativa deve ser d_X. Além da variável d_X, você deve incluir a variável what1 e clicar no botão “defasagens” na janela de especificação do modelo.

Page 82: EconomEtria ii - UNIASSELVI

74

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

FIGURA 16 – JANELA DE SELEÇÃO DA ORDEM DE DEFASAGEM

FONTE: O autor

A figura anterior apresenta a janela de seleção da ordem de defasagem para as variáveis incluídas no modelo. Você deve informar uma defasagem para what1, conforme a figura anterior e confirmar. O Gretl retorna à janela de especificação do modelo com a variável what1 defasada um período. Agora é só confirmar e ver o resultado do modelo estimado, que reproduzimos no quadro a seguir.

QUADRO 22 – RESULTADO DA ESTIMAÇÃO DO MODELO 3.4 POR MQO

FONTE: O autor

Modelo 2: MQO, usando as observações 2-300 (T = 299)Variável dependente: d_Y

coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- const 0,109162 0,229614 0,4754 0,6348 d_X 0,880328 0,0219926 40,03 1,81e-121 *** uhat1_1 −0,498083 0,0520196 −9,575 4,28e-019 ***

Média var. dependente 0,906672 D.P. var. dependente 9,986453Soma resíd. quadrados 4631,007 E.P. da regressão 3,955413R-quadrado 0,844175 R-quadrado ajustado 0,843122F(2, 296) 801,7844 P-valor(F) 3,2e-120Log da verossimilhança −833,9055 Critério de Akaike 1673,811Critério de Schwarz 1684,912 Critério Hannan-Quinn 1678,254rô 0,074284 Durbin-Watson 1,828516

Page 83: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

75

O resultado da regressão mostra que o coeficiente â2 é negativo e estatisticamente significativo, e seu valor indica que 49,80% da discrepância entre o Yt de longo prazo e o de curto prazo é corrigido em um período. Se Yt estiver abaixo do seu valor de equilíbrio, ele começará a cair no próximo período para corrigir o erro de equilíbrio. A influência de Xt sobre Yt no curto prazo é de 0,880328, enquanto a influência de longo prazo é de 0,999917.

3 VETOR AUTOREGRESSIVO (VAR)

Estamos acostumados a lidar com modelos com uma variável dependente, ou endógena, e outra variável explicativa, ou exógena. Muitas aplicações que fizemos até agora acrescentamos múltiplas variáveis exógenas, melhorando assim a nossa capacidade de prever o comportamento da variável endógena.

Em um estudo no qual queremos estimar uma função de resposta do Banco Central ao processo inflacionário, tendo como variável alvo a taxa de juros, teríamos como variáveis explicativas, por exemplo, a diferença entre a inflação presente e a sua expectativa formada ex-ante, o hiato do produto (diferença entre o PIB corrente e o PIB potencial) e diferença entre a taxa de desemprego e a taxa natural de desemprego (taxa essa que não acelera a inflação). Um modelo possível, com εt~N(0,σ2), seria:

( ) ( ) ( )0 1 2 3e p n

t t t t t ti Y Y U Uα α π π α α ε= + − + − + − + 3.5

Observe que em 3.5, apesar da variável it, a taxa de juros definida pelo Banco Central, ser endógena, ou seja, explicada pelo modelo de regressão, poderíamos usar essa mesma variável para explicar todas as demais. Afinal, tanto a inflação observada quanto a sua expectativa depende da taxa de juros praticada pelo Banco Central, e pode ser explicada pelo hiato do produto, e pelo desemprego. Da mesma forma, o PIB (potencial ou realizado) depende da taxa de desemprego, taxa de juros e taxa de inflação, entre outras variáveis. E o desemprego é a mesma coisa.

O que vemos em 3.5 é um modelo de regressão no qual todas as variáveis do modelo são endógenas, ou seja, são capazes de serem definidas dentro de um sistema de equações de forma simultânea. O problema é que a técnica econométrica que aprendemos até agora só é aplicada quando temos apenas uma variável endógena e outras variáveis exógenas ao mesmo tempo. Modelos como o de 3.5 não pode ser estimado usando as técnicas tradicionais.

Para resolver essa questão, Sims (1980) desenvolveu o modelo VAR (Vetores AutorRegressivos), que considera um sistema de equações simultâneas em que todas as variáveis são endógenas, ou seja, os coeficientes estimados são definidos dentro do próprio sistema de equações.

Seguindo Bueno (2008), podemos escrever um modelo VAR bivariado da seguinte maneira:

Page 84: EconomEtria ii - UNIASSELVI

76

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

10 12 11 1 12 1

20 21 21 1 12 1

t t t t y yt

t t t t z zt

y b a z b y b zz b a y b y b z

σ εσ ε

− −

− −

= − + + += − + + + 3.6

Os termos de erro em um modelo VAR são chamados de impulsos, inovações ou choques. O problema em 3.6 é que Yt e εyt, assim como Zt e εzt são correlacionados, conforme Bueno (2008, p. 162) “Isso ocorre porque cada uma dessas variáveis depende contemporaneamente da outra (efeito feedback)”.

Podemos reescrever 3.6 na forma estrutural para torná-la mais intuitiva.

0 1

10 112 11 12

20 121 21 22

1 01 0

t t

t t yty

t t ztz

X BA B B

y b ya b bz b za b b

ε

εσεσ

≡ ≡ ≡≡ ≡ ≡

= + +

3.7

0 1 1t t tAX B B X Bε−= + + 3.8

Pré-multiplicando ambos os lados de 3.8 por A-1 , obtemos:

1 1 10 1 1t t tX A B A B X A Bε− − −

−= + + 3.9

Fazendo ϕ0 = A-1 B0, ϕ1 = A-1 B1 e Aet = Bεt, obtemos o modelo na forma reduzida:

0 1 1t t tX X eφ φ −= + + 3.10

Para compreender como um VAR é estimado, vamos procurar identificar as relações entre as decisões sobre a taxa básica de juros por parte do BACEN, a expectativa de inflação para os próximos 12 meses e a inflação acumulada nos últimos 12 meses.

Suponha o seguinte modelo tri variado:

11 1

21 1

31 1

k k

t i t i i t i ti i

k k

t i t i i t i ti i

k k

t i t i i t i ii i

Selic Eipca ipca u

Eipca Selic ipca u

IPCA Eipca Selic u

ω α β

ψ δ β

ϕ α δ

− −= =

− −= =

− −= =

= + + +

= + + +

= + + +

∑ ∑

∑ ∑

∑ ∑

3.11

Os dados são mensais, estão disponíveis no quadro a seguir e se referem ao período entre 2002 e 2008. Estimar um modelo VAR implica em seguir alguns passos:

Page 85: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

77

1- Verificar se as séries são estacionárias.2- Se as variáveis não forem estacionárias, modificamos o modelo a fim de

incorporar as séries em primeira diferença. 3- Escolher o grau de defasagem das séries no modelo. 4- Estimamos o modelo VAR na defasagem escolhida no passo 3.

QUADRO 23 – TAXA DE JUROS, INFLAÇÃO E EXPECTATIVAS DE INFLAÇÃO, BRASIL JANEIRO DE 2002 ATÉ JULHO DE 2008

FONTE: <www.bcb.gov.br>. Acesso em: 9 abr. 2019.

Período EIPCA IPCA SELIC Período EIPCA IPCA SELICjan/02 4,968 8,23 19,00 maio/05 5,07389 8,60 19,75fev/02 5,38711 8,01 18,75 jun/05 5,22078 8,03 19,75mar/02 5,59734 8,16 18,50 jul/05 5,11609 7,54 19,75abr/02 5,05211 8,61 18,50 ago/05 5,15793 6,75 19,75

maio/02 4,90567 8,21 18,50 set/05 5,01153 6,39 19,50jun/02 5,03074 8,22 18,50 out/05 4,86519 6,83 19,00jul/02 4,61451 8,94 18,00 nov/05 4,5939 6,95 18,50ago/02 4,71902 8,21 18,00 dez/05 4,44806 6,60 18,00set/02 5,49354 8,23 18,00 jan/06 4,44793 6,31 17,25out/02 8,6225 9,34 21,00 fev/06 4,13635 6,13 17,25nov/02 10,33784 11,72 22,00 mar/06 3,82534 5,96 16,50dez/02 11,59085 13,26 25,00 abr/06 3,72187 5,54 15,75jan/03 11,34641 15,06 25,50 maio/06 3,99102 4,74 15,25fev/03 11,23661 16,26 26,50 jun/06 4,53135 4,01 15,25mar/03 10,59816 17,27 26,50 jul/06 4,90678 4,23 14,75abr/03 9,48352 17,70 26,50 ago/06 4,86519 4,02 14,25

maio/03 9,13751 17,48 26,50 set/06 4,48971 4,06 14,25jun/03 8,1683 17,06 26,00 out/06 4,38566 4,04 13,75jul/03 6,88808 16,80 24,50 nov/06 4,44795 3,59 13,25ago/03 6,69705 15,82 22,00 dez/06 4,01167 3,51 13,25set/03 6,29436 15,97 20,00 jan/07 3,74232 3,60 13,00out/03 6,10416 15,48 19,00 fev/07 3,24726 3,44 13,00nov/03 5,61944 14,37 17,50 mar/07 3,10319 3,40 12,75dez/03 5,6825 11,60 16,50 abr/07 2,81555 3,21 12,50jan/04 6,04001 10,13 16,50 maio/07 2,89751 3,29 12,50fev/04 5,59806 8,36 16,50 jun/07 3,18542 3,47 12,00mar/04 5,66116 7,19 16,25 jul/07 3,59781 3,94 11,50abr/04 5,85071 6,28 16,00 ago/07 4,01176 4,23 11,50

maio/04 6,4208 5,80 16,00 set/07 4,17778 4,36 11,25jun/04 6,86548 5,90 16,00 out/07 4,17778 4,46 11,25jul/04 6,485 7,03 16,00 nov/07 4,26076 4,51 11,25ago/04 6,56976 7,55 16,00 dez/07 4,30195 4,96 11,25set/04 6,3578 7,54 16,25 jan/08 4,13586 5,02 11,25out/04 6,35761 7,18 16,75 fev/08 3,70129 5,07 11,25nov/04 6,01939 7,60 17,25 mar/08 3,74266 5,12 11,25dez/04 5,76651 8,16 17,75 abr/08 3,97041 5,30 11,75jan/05 5,95588 8,22 18,25 maio/08 4,55226 5,87 11,75fev/05 5,74551 8,04 18,75 jun/08 5,32551 6,36 12,25mar/05 5,70337 8,04 19,25 jul/08 5,55651 6,62 13,00abr/05 5,59808 8,47 19,50

Page 86: EconomEtria ii - UNIASSELVI

78

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

Para verificar a estacionariedade, aplicamos o teste ADF, cujo resultado sintetizado está no quadro a seguir.

QUADRO 24 – RESULTADO DO TESTE ADF NAS SÉRIES DE DADOS

FONTE: O autor

Teste Aumentado de Dickey-Fuller para EIPCAhipótese nula de raiz unitária: a = 1

teste com constante valor estimado de (a - 1): -0,0674433estatística de teste: tau_c(1) = -2,86641p-valor assintótico 0,04937

Teste Aumentado de Dickey-Fuller para SELIChipótese nula de raiz unitária: a = 1

com constante e tendência valor estimado de (a - 1): -0,117373estatística de teste: tau_ct(1) = -3,88424p-valor assintótico 0,01266

Teste Aumentado de Dickey-Fuller para IPCAhipótese nula de raiz unitária: a = 1

com constante e tendência valor estimado de (a - 1): -0,0944858estatística de teste: tau_ct(1) = -3,84999p-valor assintótico 0,01411

Considerando 5% de significância estatística, podemos rejeitar a hipótese nula de raiz unitária, portanto, usaremos as séries em nível. O próximo passo é verificar o grau de defasagem das variáveis no modelo 3.11. Para isso, na tela inicial do Gretl, selecione a opção “Modelo”, depois escolha “Série temporal”, na sequência “Multivariado” e finalmente “Seleção de defasagens VAR”. Preencha as informações como na figura a seguir e clique em “OK” para obter o resultado que está transcrito no Quadro 25.

Page 87: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

79

FIGURA 17 – SELEÇÃO DE DEFASAGENS VAR

FONTE: O autor

A ideia é que o número de defasagens do modelo VAR gere ruídos brancos. Para isso, usamos os critérios de informação, escolhendo um número de defasagens que torne o modelo parcimonioso. Dito de outra forma, tome cuidado ao selecionar as defasagens porque quanto mais defasagens mais coeficientes são estimados, reduzindo o número de graus de liberdade do modelo e influenciando na sua capacidade de previsão.

QUADRO 25 – SELEÇÃO DE DEFASAGENS VAR

FONTE: O autor

Sistema VAR, máximo grau de defasagem 11

Os asteriscos abaixo indicam os melhores (isto é, os mínimos) valoresdos respectivos critérios de informação. AIC = critério de Akaike,BIC = critério Bayesiano de Schwarz, e HQC = critério de Hannan-Quinn.

defas. log.L p(LR) AIC BIC HQC

1 -117,37707 3,805208 4,196886 3,960403 2 -79,75408 0,00000 2,963355 3,648792* 3,234946 3 -64,66895 0,00041 2,784381 3,763575 3,172368 4 -49,12099 0,00029 2,591794 3,864747 3,096177* 5 -39,22810 0,01928 2,565532 4,132244 3,186311 6 -26,33140 0,00221 2,450923 4,311393 3,188099 7 -24,39975 0,92018 2,658816 4,813044 3,512387 8 -18,39218 0,21246 2,746829 5,194815 3,716796 9 -8,34507 0,01734 2,716031 5,457776 3,802395 10 19,55891 0,00000 2,160032 5,195535 3,362791 11 31,58918 0,00421 2,070906* 5,400168 3,390062

Page 88: EconomEtria ii - UNIASSELVI

80

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

Pelo critério de Schwarz, selecionamos duas defasagens, o que significa que o modelo a ser estimado será:

Selict = ω + α1Elipcat-1 + α2Elipcat-2 + β11ipcat-1 + β2ipcat-2 + u1tElipcat = Ψ + δ1Selict-1 + δ2Selict-2 + β1ipcat-1 + β2ipcat-2 + u2t 3.12IPCAt = φ + α1Elipcat-1 + α2Elipcat-2 + δ1Selict-1 + δ2Selict-2 + u3i

A estimação é feita selecionando o menu “Modelo”, depois escolha “Série temporal”, na sequência “Multivariado” e selecione “VAR”, preenchendo as informações conforme a Figura 18.

O resultado, com algumas omissões por questão de espaço, está no Quadro 26. Começamos com a equação 1, que avalia a expectativa em relação ao IPCA. Veja que nessa estimação, apenas os valores defasados da expectativa do IPCA são estatisticamente significativos, e há uma mudança de sinal da primeira defasagem para a segunda. Isso indica que no período analisado as expectativas são modificadas ou adaptadas à medida que a inflação se realiza.

A equação 2 avalia o IPCA. Nesse caso, vemos que a inflação é influenciada pelas expectativas e pelos seus valores observados (que são as variáveis estatisticamente significativas). Em síntese, os agentes econômicos, ao decidirem sobre os preços que serão praticados, olham a inflação ocorrida nos últimos dois meses, atribuindo um peso maior a essa variável, e olham as expectativas dos demais agentes em relação à inflação.

FIGURA 18 – ESTIMANDO O MODELO VAR

FONTE: O autor

Page 89: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

81

A equação número 3 avalia as decisões do Banco Central em relação à taxa de juros. É como se fosse uma função resposta do Bacen às mudanças na inflação e nas expectativas sobre a inflação. Perceba que nesse caso o Bacen olha as expectativas dos agentes em relação à inflação e não considera os preços passados na hora de decidir sobre a trajetória da taxa de juros, além da própria taxa de juros do período anterior.

QUADRO 26 – RESULTADO DO MODELO VAR

FONTE: O autor

Sistema VAR, grau de defasagem 2Estimativas MQO, observações 2002:03-2008:07 (T = 77)

Equação 1: EIPCA coeficiente erro padrão razão-t p-valor ----------------------------------------------------------- const 0,463395 0,317028 1,462 0,1483 EIPCA_1 1,55710 0,124057 12,55 1,37e-019 *** EIPCA_2 −0,700804 0,118549 −5,912 1,12e-07 *** IPCA_1 0,0797939 0,100338 0,7953 0,4292 IPCA_2 −0,0439390 0,0883047 −0,4976 0,6203 SELIC_1 −0,00191888 0,112848 −0,01700 0,9865 SELIC_2 0,00475427 0,114217 0,04162 0,9669

Média var. dependente 5,532041 D.P. var. dependente 1,960283Soma resíd. quadrados 14,79561 E.P. da regressão 0,459745R-quadrado 0,949338 R-quadrado ajustado 0,944996F(6, 70) 218,6180 P-valor(F) 2,78e-43rô −0,064875 Durbin-Watson 2,122548

Equação 2: IPCA coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- const −0,530280 0,292406 −1,814 0,0740 * EIPCA_1 0,464443 0,114422 4,059 0,0001 *** EIPCA_2 −0,371475 0,109342 −3,397 0,0011 *** IPCA_1 1,41515 0,0925449 15,29 5,24e-024 *** IPCA_2 −0,500485 0,0814466 −6,145 4,34e-08 *** SELIC_1 0,0995946 0,104084 0,9569 0,3419 SELIC_2 −0,0593472 0,105347 −0,5634 0,5750 Média var. dependente 7,861299 D.P. var. dependente 4,047641Soma resíd. quadrados 12,58666 E.P. da regressão 0,424039R-quadrado 0,989891 R-quadrado ajustado 0,989025F(6, 70) 1142,461 P-valor(F) 9,53e-68rô 0,039219 Durbin-Watson 1,917627

Equação 3: SELIC coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- const 0,0806493 0,395120 0,2041 0,8389 EIPCA_1 0,454770 0,154616 2,941 0,0044 *** EIPCA_2 −0,301115 0,147751 −2,038 0,0453 ** IPCA_1 0,0965416 0,125053 0,7720 0,4427 IPCA_2 −0,146834 0,110057 −1,334 0,1865 SELIC_1 1,22129 0,140646 8,683 1,01e-012 *** SELIC_2 −0,255554 0,142352 −1,795 0,0769 *Média var. dependente 16,97403 D.P. var. dependente 4,231886Soma resíd. quadrados 22,98251 E.P. da regressão 0,572993R-quadrado 0,983114 R-quadrado ajustado 0,981667F(6, 70) 679,2582 P-valor(F) 5,92e-60rô −0,135451 Durbin-Watson 2,268629

Page 90: EconomEtria ii - UNIASSELVI

82

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

Os resultados devem ser analisados com ressalvas. É importante ter em mente que o que fizemos aqui é apenas um exercício com o objetivo de verificar os procedimentos de estimação de um VAR, sem querer esgotar a pesquisa sobre as relações entre expectativas, inflação e taxa de juros.

Mesmo assim, esses resultados são válidos e devem ser interpretados de acordo com o período amostral. Se atualizarmos as informações e agregarmos mais variáveis, certamente obteremos resultados diferentes, o que nos permite avaliar inclusive as decisões do Banco Central brasileiro em relação à taxa de juros em governos diferentes, a fim de avaliar qual a variável que um determinado Banco Central atribuiu mais peso, comparativamente ao Banco Central de outro governo.

Precisamos nos certificar de que o modelo é estável e para isso usamos a condição de estabilidade de Lütkepohl (2005). Para que o modelo seja estável, as raízes da inversa do VAR (os autovalores da matriz de coeficientes) deve estar dentro do círculo unitário. A partir da janela de resultado do Gretl, você deve selecionar o menu “Gráfico” e depois escolher “Inversas das raízes VAR”. O gráfico gerado está na figura 6, onde podemos ver que em relação ao círculo unitário, todas as raízes do VAR estão dentro daquele círculo, garantindo a estabilidade do modelo estimado.

FIGURA 19 – INVERSA DAS RAÍZES DO VAR

FONTE: O autor

Page 91: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

83

A estabilidade do processo VAR garante também a sua estacionariedade, como mostra Lütkepohl (2005, p. 25). Além da estabilidade e da estacionariedade, buscamos resíduos que sejam ruídos branco. Para verificar essa suposição, a partir da janela de resultado do modelo estimado, você seleciona no menu “Testes” e depois “Autocorrelação”. Basta definir as defasagens e clicar em “OK” para obter o resultado do teste de Multiplicador de Lagrange, cuja hipótese nula é de que os resíduos não são autocorrelacionados.

Você verificará que o resultado do teste do nosso exemplo apresenta presença de autocorrelação de segunda ordem, como mostra o quadro a seguir. A autocorrelação não é o único problema. Esperávamos encontrar resíduos distribuídos como normal, mas, como vemos no quadro a seguir, a hipótese nula de normalidade é rejeitada pelo teste de Doornik e Hansen (1994).

QUADRO 27 – TESTE DE AUTOCORRELAÇÃO E NORMALIDADE PARA OS RESÍDUOS

FONTE: O autor

Teste para autocorrelação até a ordem 2

Rao F Approx dist. p-valuelag 1 2,612 F(9, 158) 0,0077lag 2 2,082 F(18, 175) 0,0082

Teste para normalidade dos resíduos, seguindo Doornik e Hansen (1994)

Matriz de correlação dos resíduos, C (3 x 3)

1,0000 0,050133 0,59613 0,050133 1,0000 -0,050687 0,59613 -0,050687 1,0000

Autovalores de C

0,395458 1,00841 1,59613

Teste de Doornik-Hansen Qui-quadrado(6) = 58,4843 [0,0000]

Com o modelo estimado, e considerando que tenha passado pelas condições de estabilidade e estacionariedade, e pelos diagnósticos dos resíduos, podemos extrair ainda duas importantes estatísticas: a função de resposta a impulsos e a decomposição da variância. Ambas as estatísticas estão disponíveis no menu “Análise” da janela de resultados do Gretl, e são de interpretação intuitivamente simples.

Page 92: EconomEtria ii - UNIASSELVI

84

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

A decomposição da variância mostra o percentual de mudanças na variância de uma variável explicada pelas mudanças na variância da outra variável. O gráfico da função de resposta a impulsos mostra o efeito de um choque não antecipado um período sobre os resíduos correntes e valores futuros das variáveis. Dito de outra forma, um choque na i – éstima variável afeta não apenas diretamente a i – éstima variável, mas também é transmitido para todas as outras variáveis endógenas pela estrutura dinâmica do VAR (COTTRELL; LUCCHETTI, 2018).

4 VETOR DE CORREÇÃO DE ERROS (VECM)

O modelo VECM é um caso especial do VAR, cujo desenvolvimento ganhou notoriedade através do trabalho de (CAMPBELL; PERRON, 1991). A vantagem em utilizar essa abordagem é preservar várias características presentes nas séries não estacionárias, e ausentes nas séries integradas, e maior facilidade de interpretação teórica (BUENO, 2008).

Além disso, reduz significativamente problemas de multicolineariedade e de correlação serial, algo típico dos modelos de séries temporais, e permite distinguir efeitos de curto e longo prazo, tornando a interpretação dos resultados do modelo VEC mais intuitivos e verdadeiros (JUSELIUS, 2006).

Podemos escrever o VEC da seguinte forma:

ΔXt = ϕXt–1 + ΣΛiΔXt–i + δdt + et 3.13

Onde ϕ = αβ' em que β é a matriz que tem r vetores de cointegração e α é a matriz de ajustamento, com r vetores de ajustamento, por isso ϕXt-1 representa a relação de ajustamento de longo prazo, ou a relação de cointegração dada entre as variáveis endógenas. O segundo componente Σi=1ΛiΔXt-1 representa os fatores de curto prazo, obtido da mesma forma que o da equação do VAR, entretanto, usando-se as variáveis em primeira diferença (BUENO, 2008).

Como critério de estimação do VECM, todas as variáveis precisam ter a mesma ordem de integração para que possam ser cointegradas, e devem ser estacionárias em suas diferenças. Além disso, espera-se que os termos de erro sejam um ruído branco (BUENO, 2008).

p–1

i=1

p–1

Page 93: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

85

LEITURA COMPLEMENTAR

NOBEL DE ECONOMIA 2011 VAI PARATHOMAS SARGENT E CHRISTOPHER SIMS

10/10/2011

Os pesquisadores norte-americanos Thomas Sargent e Christopher Sims foram os escolhidos para o Nobel de economia 2011, informou nesta segunda-feira (10) a Academia Real das Ciências da Suécia.

Eles foram premiados pela "pesquisa empírica sobre a causa e o efeito na macroeconomia", informou a Academia.

Com o prêmio, os dois receberão cerca de US$ 1,5 milhão.

O anúncio do Nobel de Economia fecha a edição de 2011 destes prestigiados prêmios, que começou na segunda-feira passada com o de Medicina, dividido entre o americano Bruce Beutler, o franco-luxemburguês Jules Hoffmann e o canadense Ralph Steinman, morto dias antes da divulgação da premiação.

Hoje, os métodos desenvolvidos por Sargent e Sims são ferramentas essenciais na análise macroeconômica", destaca a academia em seu comunicado.

SOBRE O ESTUDO

De acordo com a Academia, o trabalho dos dois é importante para ajudar a distinguir o que é causa e o que é efeito na economia em relação às políticas macroeconômicas adotadas pelo governo, já que muitas vezes a diferença entre o que são choques (eventos inesperados da economia) e o que são efeitos de medidas é difícil de ser percebido separadamente.

Por exemplo: o banco central decide elevar a taxa de juros porque prevê que os consumidores irão aumentar os gastos e gerar inflação; ao mesmo tempo, os investidores decidem gastar mais ou menos com base em como esperam que o banco central irá agir. É uma relação recíproca.

De acordo com a Academia, as pesquisas sobre causa e efeito na macroeconomia de Sims e Sargent ajudaram a entender os efeitos de mudanças sistemáticas de políticas macroeconômicas, enquanto Sims focou em como os choques na economia (eventos inesperados, como a alta do petróleo) se espalham.

"Uma dificuldade em entender como a economia funciona é que as relações são muitas vezes recíprocas. É a política adotada pelo governo que influencia o desenvolvimento econômico ou há uma relação causal reversa?

Page 94: EconomEtria ii - UNIASSELVI

86

UNIDADE 1 | ECONOMETRIA DE SÉRIES TEMPORAIS

De acordo com a Academia, os laureados desenvolveram métodos para responder a perguntas como as seguintes:

"Como o PIB e a inflação são afetados por uma alta temporária na taxa de juros ou um corte de impostos? O que acontece se o banco central fizer uma mudança permanente em sua meta de inflação ou se o governo alterar sua meta para o orçamento"?

Sargent e Sims, ambos com 68 anos, realizaram suas pesquisas de modo independente, nos anos 1970 e 1980.

Thomas J. Sargent, nascido em 1943, em Pasadena, Califórnia, é professor na Universidade de Nova York.

Christopher A. Sims nasceu em 1942 em Washington e é professor na Universidade de Princeton.

O prêmio de Economia, oficialmente denominado o Prêmio Sveriges Riksbank de Ciências Econômicas em Memória de Alfred Nobel, foi estabelecido em 1968. Não integrava o grupo original de prêmios definido no testamento de Alfred Nobel, o magnata da dinamite, em 1895.

RESPOSTA PARA A CRISE

Ao telefone com o comitê do Nobel, instantes após o anúncio, Sims disse que o prêmio foi inesperado e que estava dormindo quando recebeu a ligação anunciando a premiação. "Estava dizendo às pessoas que eu não deveria levar", disse.

Questionado sobre como seu trabalho poderia ser usado para ajudar a resolver a crise financeira global, Sims, foi cauteloso: "Se eu tivesse uma resposta simples para isso estaria espalhando para o mundo. Não há resposta simples".

Em entrevista ao diretor editorial do Nobel, pouco após o anúncio, Thomas Sargent afirmou que ele e seu colega laureado apenas "olham os números e tentam descobrir o que está acontecendo". De acordo com ele, os modelos desenvolvidos são usados para prever melhor os papéis e limites das intervenções na economia. "Tentamos experimentar nos nossos modelos antes de quebrar o mundo", afirmou.

THOMAS SARGENT

• Sargent nasceu em julho de 1943 e se formou bacharel em 1964 na Universidade da Califórnia, em Berkeley, e tornou-se PhD em 1968 da Universidade Harvard.

• Ele se especializou no campo da macroeconomia, economia monetária e econometria de séries temporais. Ele é conhecido como 'um dos líderes da revolução de expectativas racionais' e autor de numerosos artigos que romperam barreiras.

Page 95: EconomEtria ii - UNIASSELVI

TÓPICO 3 | ANÁLISE MULTIVARIADA

87

• Em uma série de artigos escritos durante os anos 1970, Sargent mostrou como os modelos macroeconômicos estruturais podem ser construídos, resolvidos e estimados. Sua abordagem acabou sendo particularmente útil na análise de política econômica, mas também é utilizada em outras áreas de macroeconometria e pesquisa econômica.

• Sargent mostrou como a macroeconometria estrutural pode ser utilizada para analisar mudanças permanentes na política econômica. Esse método pode ser aplicado para estudar relações macroeconômicas quando famílias e empresas ajustam suas expectativas simultaneamente com os desenvolvimentos econômicos.

• Atualmente, ele é professor de Economia e Negócios na Universidade de Nova York.

CRISTOPHER SIMS

• Sims nasceu em outubro de 1942 e tornou-se PhD em Economia em 1968 na Universidade de Harvard. Ele foi professor em Harvard, na Universidade de Minnesota, Universidade de Yale e, desde 1999, em Princeton.

• Sims é membro da Academia Nacional de Ciências (desde 1989) e da Academia Americana de Artes e Ciências (desde 1988).

• Em seu artigo 'Macroeconomia e Realidade' (1980), Sims introduziu uma nova maneira de analisar dados macroeconômicos. Ele também concordou com Sargent na ênfase da importância das expectativas.

• Sims propôs um novo método de identificar e interpretar choques econômicos em dados históricos e analisar como tais choques são gradualmente transmitidos para diferentes variáveis econômicas.

• Sims desenvolveu um método baseado na chamada autorregressão vetorial para analisar como a economia é afetada por mudanças temporárias na política econômica e outros fatores.

• Atualmente, ele é Professor de Economia e Bancos na Universidade Princeton.

(Com informações da Reuters e da AFP)

FONTE: <http://g1.globo.com/economia/noticia/2011/10/nobel-de-economia-2011-vai-para-tho-mas-sargent-e-christopher-sims.html>. Acesso em: 21 abr. 2019.

Page 96: EconomEtria ii - UNIASSELVI

88

RESUMO DO TÓPICO 3

Nesse tópico, você aprendeu que:

• Na análise multivariada com dados de séries temporais, da mesma forma que na análise univariada, é necessário observar se as séries são estacionárias antes de rodar uma regressão.

• Estimar uma regressão com séries que apresentam raiz unitária gera resultados espúrios. Exceto quando os resíduos da regressão são estacionários, neste caso dizemos que as séries são cointegradas.

• Engle e Granger (1987) estabeleceram um teste para verificar e existência de cointegração entre séries temporais. O teste inicia verificando se as séries são integradas de ordem 1, I(1). Se ambas são integradas da mesma ordem, rodamos uma regressão com as variáveis em nível e aplicamos o teste ADF nos resíduos, sob hipótese nula de não existência de cointegração entre as variáveis.

• Caso as variáveis cointegrem, podemos expressar essa relação através de um mecanismo de correção de erros, conforme o teorema de representação de Granger.

• Quando o modelo econométrico possuir apenas variáveis dependentes podemos estimar uma relação entre as variáveis através de um sistema de equações simultânea, desenvolvido por Sims (1980), chamado de modelo VAR (Vetores AutorRegressivos).

Page 97: EconomEtria ii - UNIASSELVI

89

1 Considere o modelo de regressão linear: Ct = a1 + a2 Yt + ut, t = 1, ..., T, em que: Ct é o consumo pessoal em t, Yt é a renda pessoal em t, e ut é o termo de erro aleatório.

É correto afirmar que:

a) ( ) Se Ct e Yt são I(1), então ut será obrigatoriamente estacionário.b) ( ) Se o Ct e Yt são integradas, mas com ordens de integração diferentes,

então a regressão será inválida.c) ( ) Se Ct e Yt são I(1), então um teste de raiz unitária aplicado aos resíduos

da regressão poderá identificar a presença de cointegração entre as variáveis.

d) ( ) Se Ct e Yt são I(1), mas os resíduos são I(0), então há cointegração entre as variáveis.

e) ( ) Se Ct e Yt são I(1) e os resíduos também são I(1), então a regressão de ΔCt em ΔYt é inválida.

2 Quais os passos para estimar um modelo VAR?

3 Por que incluímos defasagens das variáveis no modelo VAR? Como definimos a quantidade de defasagens a ser empregada?

4 Após a estimação do VAR, quais os testes de diagnóstico devemos empregar?

AUTOATIVIDADE

Page 98: EconomEtria ii - UNIASSELVI

90

Page 99: EconomEtria ii - UNIASSELVI

91

UNIDADE 2

MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE

EQUAÇÕES SIMULTÂNEAS

OBJETIVOS DE APRENDIZAGEM

PLANO DE ESTUDOS

A partir do estudo desta unidade, você será capaz de:

• construir modelos econométricos que incluem não apenas os valores correntes das variáveis explanatórias, mas também valores defasados;

• estabelecer uma relação multidisciplinar entre as disciplinas de econometria e macroeconomia, desenvolvendo na prática os conceitos relativos às teorias sobre expectativas;

• investigar as relações de causalidade ou precedência entre variáveis;

• estimar modelos com múltiplas equações, identificando e distinguindo as variáveis endógenas das exógenas em um sistema de equações simultâneas.

Esta unidade está dividida em três tópicos. No decorrer da unidade você encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – MODELOS ECONOMÉTRICOS DINÂMICOS

TÓPICO 2 – MODELOS DE EQUAÇÕES SIMULTÂNEAS

TÓPICO 3 – PRECEDÊNCIA EM ECONOMIA

Page 100: EconomEtria ii - UNIASSELVI

92

Page 101: EconomEtria ii - UNIASSELVI

93

TÓPICO 1

MODELOS ECONOMÉTRICOS DINÂMICOS

UNIDADE 2

1 INTRODUÇÃO

Na Unidade 2 continuamos os estudos iniciados na Unidade 1 sobre econometria com dados de séries temporais, avançando na análise multivariada, concentrando a atenção na macroeconometria.

Inicialmente abordamos os modelos com defasagens distribuídas, que são modelos em que a variável explicativa Xt se relaciona com a variável dependente Yt de forma contemporânea, no tempo t, e com defasagens, em t – k. Esses modelos nos ajudam a compreender, por exemplo, os mecanismos de transmissão da política monetária sobre a economia real, entre outras aplicações.

A título de exemplo considere um caso no qual há uma desoneração fiscal sobre bens de consumo duráveis, cuja quantidade vendida pode ser definida como Yt, e a desoneração (redução nos impostos sobre produtos industrializados) como Xt.

Sabemos que o primeiro impacto imediato dessa medida será o aumento nas vendas de Y em t, e que em t + 1, t + 2, ..., t + k ainda haverá impacto dessa decisão tomada em t, mas em menor escala. A influência da desoneração ao longo do tempo sobre as vendas de produtos industrializados perderá forças, até o momento que ela cessa definitivamente.

O outro modelo abordado na Unidade 2 é o modelo autorregressivo. Nesse caso, a variável Yt é afetada pelas mudanças em Xt e nas mudanças de Y em períodos anteriores. Imagine que Yt seja o preço da gasolina nas bombas de combustível e Xt o preço da gasolina nas refinarias.

Uma mudança na estrutura de custos em t, como por exemplo a cotação do barril de petróleo ou variações na taxa de câmbio, altera o preço da gasolina nas refinarias, X no período t. Se uma determinada rede de postos de combustíveis ainda tem gasolina ao preço antigo, a mudança do preço X em t, terá um impacto somado ao preço do estoque de combustíveis no momento do reajuste. Assim, a própria variável Y, preço da gasolina, em períodos anteriores, t – 1, t – 2, ..., t – k, afeta o preço nas bombas de combustível.

Page 102: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

94

No Tópico 2 veremos os modelos de equações simultâneas que, diferentemente da Unidade 1, têm na sua composição tanto variáveis endógenas quanto variáveis exógenas. Nesse caso, os modelos VAR dão lugar ao método de estimação desenvolvido especificamente para esse fim.

Terminamos a Unidade 2 falando sobre a existência de precedência na economia. Dizemos que uma variável precede a outra quando o seu comportamento presente é capaz de alterar a trajetória futura de outra variável. Dito de outra forma, o caminho seguido por uma variável é precedido pela direção que a outra toma.

2 MODELOS COM DEFASAGENS DISTRIBUÍDAS

Sabemos que a dinâmica econômica é complexa. Mudanças em determinadas variáveis econômicas são sentidas na economia real com alguma defasagem. Além disso, esse impacto pode ser percebido ainda em períodos futuros. Para compreender melhor, considere o seguinte modelo de regressão:

0 1 1 2 2t t t t k t k tY X X X X uα β β β β− − −= + + + +…+ + 1.1

Suponha que Yt seja o consumo das famílias e que Xt seja a renda familiar. Se considerarmos ainda que o tempo é medido em meses, podemos dizer que no modelo 1.1 o consumo presente das famílias depende da renda presente e da renda recebida nos meses anteriores ao consumo.

Esse modelo faz sentido se você imaginar que um agente econômico racional abre mão de uma parcela do consumo presente a fim de poupar recursos para consumir no futuro. Assim, em 1.1, as famílias que pouparam estão consumindo a parcela de sua renda que deixaram de consumir em t – 1, t – 2, ..., t – k.

Gujarati e Porter (2011, p. 615) chamam o coeficiente β0 de multiplicador de impacto de curto prazo. Esse coeficiente expressa a proporção da variação de X que afeta Y contemporaneamente.

Se somarmos os coeficientes β subsequentes, teremos os multiplicadores de impacto intermediários, e da mesma forma, somando todos os coeficientes β, obtemos o multiplicador de defasagens de longo prazo ou total. A partir da obtenção do multiplicador de defasagens total é possível obter os multiplicadores proporcionais, ou seja, a proporção do impacto de longo prazo sentido em determinado período.

Há dois grandes problemas relacionados aos modelos de defasagens distribuídas. O primeiro deles é a definição do número de defasagens da variável explicativa e o outro processo de estimação dos parâmetros.

Page 103: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS ECONOMÉTRICOS DINÂMICOS

95

Uma das formas de estimar o modelo 1.1 é pelo método de mínimos quadrados ordinários. Neste caso, rodamos a regressão sequencialmente, adicionando em cada estimativa uma nova defasagem. Fazemos isso até que “[...] os coeficientes de regressão das variáveis defasadas começam a tornar-se estatisticamente insignificantes e/ou o coeficiente de pelo menos uma das variáveis muda o sinal de positivo para negativo ou vice-versa” (GUJARATI; PORTER, 2011, p. 620).

Para compreender esse procedimento, considere o caso da lei de Okun, que mostra uma relação negativa entre desemprego e PIB. Para maiores detalhes, consulte uma obra de referência de macroeconomia, por exemplo, o Capítulo 9, da obra Maroeconomia, de Makiw (2008). Os dados que usaremos estão no quadro a seguir e se referem à economia americana para o período entre o segundo trimestre de 1985 e o segundo trimestre de 1991.

QUADRO 1 – TAXA DE DESEMPREGO E CRESCIMENTO ECONÔMICO

FONTE: <http://www.learneconometrics.com/gretl/POE4_data.zip>.Acesso em: 11 abr. 2019.

Período gt ut Período gt ut Período gt ut Período gt ut

1985 T2 1,40 7,30 1991 T3 1,20 6,90 1997 T4 1,10 4,70 2004 T1 1,60 5,70 1985 T3 2,00 7,20 1991 T4 1,00 7,10 1998 T1 1,10 4,60 2004 T2 1,60 5,60 1985 T4 1,40 7,00 1992 T1 1,60 7,40 1998 T2 1,10 4,40 2004 T3 1,50 5,40 1986 T1 1,50 7,00 1992 T2 1,70 7,60 1998 T3 1,70 4,50 2004 T4 1,60 5,40 1986 T2 0,90 7,20 1992 T3 1,50 7,60 1998 T4 2,00 4,40 2005 T1 1,90 5,30 1986 T3 1,50 7,00 1992 T4 1,60 7,40 1999 T1 1,30 4,30 2005 T2 1,10 5,10 1986 T4 1,20 6,80 1993 T1 0,80 7,10 1999 T2 1,10 4,30 2005 T3 1,80 5,00 1987 T1 1,50 6,60 1993 T2 1,20 7,10 1999 T3 1,60 4,20 2005 T4 1,40 4,90 1987 T2 1,60 6,30 1993 T3 1,00 6,80 1999 T4 2,20 4,10 2006 T1 2,10 4,70 1987 T3 1,70 6,00 1993 T4 1,90 6,60 2000 T1 1,10 4,00 2006 T2 1,20 4,70 1987 T4 2,50 5,80 1994 T1 1,50 6,60 2000 T2 2,50 3,90 2006 T3 0,80 4,60 1988 T1 1,30 5,70 1994 T2 1,90 6,20 2000 T3 0,70 4,00 2006 T4 1,20 4,40 1988 T2 2,20 5,50 1994 T3 1,20 6,00 2000 T4 1,10 3,90 2007 T1 1,40 4,50 1988 T3 1,70 5,50 1994 T4 1,60 5,60 2001 T1 0,30 4,20 2007 T2 1,50 4,50 1988 T4 2,10 5,30 1995 T1 0,80 5,50 2001 T2 1,30 4,40 2007 T3 1,30 4,70 1989 T1 2,10 5,20 1995 T2 0,70 5,70 2001 T3 0,00 4,80 2007 T4 1,10 4,80 1989 T2 1,70 5,20 1995 T3 1,30 5,70 2001 T4 0,70 5,50 2008 T1 0,30 4,90 1989 T3 1,50 5,20 1995 T4 1,20 5,60 2002 T1 1,20 5,70 2008 T2 0,90 5,40 1989 T4 0,90 5,40 1996 T1 1,30 5,50 2002 T2 1,00 5,80 2008 T3 0,30 6,10 1990 T1 2,30 5,30 1996 T2 2,10 5,50 2002 T3 0,90 5,70 2008 T4 -1,40 6,90 1990 T2 1,60 5,30 1996 T3 1,20 5,30 2002 T4 0,60 5,90 2009 T1 -1,20 8,10 1990 T3 0,90 5,70 1996 T4 1,70 5,30 2003 T1 1,10 5,90 2009 T2 -0,20 9,30 1990 T4 -0,10 6,10 1997 T1 1,40 5,20 2003 T2 1,10 6,10 2009 T3 0,80 9,60 1991 T1 0,60 6,60 1997 T2 1,70 5,00 2003 T3 2,20 6,10 1991 T2 1,40 6,80 1997 T3 1,60 4,90 2003 T4 1,40 5,80

Page 104: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

96

Nesse modelo, a mudança na taxa de desemprego entre dois períodos depende da taxa de crescimento do produto da economia:

ut – ut–1 = – Y(gt – gN) 1.2

Onde a variável gt representa a mudança percentual no Produto Nacional Bruto, ajustado sazonalmente, e a variável ut representa a taxa de desemprego civil, ajustado sazonalmente, e gN é a taxa normal de crescimento da economia americana.

Para fins de estimação, modificaremos o modelo da seguinte forma:

10 1 2 2t t t t k t k tu g g g g eα β β β β− −∆ = + + + +…+ + 1.3

Onde Δ é o operador de diferenças, α = yGN , e β0 = –y. Adicionalmente temos o termo de erro com as características padrão.

O primeiro passo é estimar o modelo de regressão 1.3 com k=0, ou seja, sem defasagem, depois, adicionamos k defasagens até que o coeficiente estimado na defasagem k não seja estatisticamente significativo ou mude de sinal. O resultado está sintetizado no quadro a seguir.

QUADRO 2 – ESTIMAÇÃO DA LEI DE OKUN

FONTE: O autor

1. Δut = 0,4213 – 0,3118gt (0,0000) (0,0000)

2. Δut = 0,5458 – 0,2173gt – 0,1912gt–1 (0,0000) (0,0000) (0,0000)

3. Δut = 0,5836 – 0,2020gt – 0,1653gt–1 – 0,0700gt–2 (0,0000) (0,0000) (0,0000) (0,0371)

4. Δut = 0,5810 – 0,2021gt – 0,1645gt–1 – 0,0716gt–2 + 0,0033gt–3 (0,0000) (0,0000) (0,0000) (0,0456) (0,9276)

OBS.: Entre parêntesis o p-valor.

Aplicando a técnica desenvolvida por Alt (1942), se considerarmos um nível e significância estatística de 5%, devemos selecionar o modelo com duas defasagens, modelo 3. O modelo 4 apresenta um coeficiente estimado para a terceira defasagem com sinal trocado e estatisticamente não significativo.

Page 105: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS ECONOMÉTRICOS DINÂMICOS

97

O problema do método de Alt (1942) é que, ao estimar um modelo com muitas defasagens, perdemos graus de liberdade, o que pode fazer muita falta se a base de dados não for suficientemente grande. Além disso, a escolha equivocada da quantidade de defasagens pode gerar um viés de especificação, ou ainda problemas relacionados à colinearidade entre as defasagens.

3 MODELOS AUTORREGRESSIVOS

A saída para esses problemas é a transformação de Koyck (1954). Com a transformação de Koyck, iniciamos em um modelo de defasagens da variável explicativa distribuídas ao longo do tempo e terminamos, após a transformação, em um modelo autorregressivo. Gujarati e Porter (2011) descrevem essa transformação começando com o seguinte modelo de regressão:

Yt = α + β0Xt + β1Xt–1 + β2Xt–2 + ... + βkXt–k + ut 1.4

Em 1.4 supomos que todos os β têm o mesmo sinal, e que eles declinam geometricamente como βk = β0λk, com k = 0,1, ..., onde λ mede a taxa de declínio da defasagem distribuída e 1 – λ a velocidade do ajustamento. Isso garante que à medida que avançamos no tempo, os efeitos da variável explicativa X vai perdendo o seu poder de influência sobre a variável dependente Y.

Imagine uma firma que produza um determinado bem e venda para clientes varejistas. A empresa produtora manterá um estoque de produtos acabados para atender à demanda de seus clientes e esse estoque dependerá dos pedidos feitos por eles. Assim, supondo que os pedidos sejam feitos com certa antecedência, a manutenção dos estoques variará em razão dos pedidos feitos em t, t – 1, t – 2, ..., t – k. Dito de outra forma, os pedidos recentes têm mais influência sobre a decisão de quanto manter em estoque do que os pedidos recebidos no passado distante.

Espera-se que as rendas atuais e do passado recente afetem de forma mais intensa as despesas de consumo do que as rendas recebidas no passado distante.

Se analisarmos 1.4 com atenção e considerarmos o λ < 1, entenderemos melhor o que foi dito no parágrafo anterior. À medida que avançamos no tempo, o βk mais distante terá menor peso do que o βk mais recente sobre a variável dependente. Além disso, eliminamos a mudança de sinal ao supor que λ ≥ 0.

Vamos acrescentar esse parâmetro λ em 1.4 e prosseguir com a transformação:

Yt = α + β0Xt + β0λXt–1 + β0λ2Xt–2 + ... + ut 1.5

Defasamos um período e multiplicamos o resultado por λ para obtermos:

Yt–1 = α + β0Xt–1 + β0λXt–2 + β0λ2Xt–3 + ... + ut–1 1.6λYt–1 = λα + λβ0Xt–1 + β0λ2Xt–2 + β0λ3Xt–3 + ... λut–1 1.7

Page 106: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

98

Agora podemos subtrair 1.7 de 1.5 para obter:

Yt – λYt–1 = α(1 – λ) + β0Xt + (ut – λut–1) 1.8

Resolvendo para Yt:

Yt = α(1 – λ) + β0Xt + λYt–1 + νt 1.9

Onde νt = (ut – λut–1) é uma média móvel de ut e ut–1. Se em 1.5 tínhamos uma quantidade enorme de parâmetros para estimar, agora, em 1.9 precisamos estimar apenas a constante α, o coeficiente β0 e o λ, escapando inclusive dos problemas de colinearidade que poderiam surgir em um modelo de defasagens distribuídas.

Apesar dessas vantagens, o problema em 1.9 é que o termo de erro, νt depende dos erros presente e passado, o que implica autocorrelação. Outro problema é que Yt–1 também está correlacionado com νt através de ut–1. Com isso, a estimação de 1.9 por mínimos quadrados ordinários gera parâmetros tendenciosos e inconsistentes, como demonstra Hill, Judge e Griffiths (2010).

A saída apresentada por Hill, Judge e Griffiths (2010, p. 381) é estimar o modelo 1.9 por Mínimos Quadrados em Dois Estágios. O procedimento inicia com a estimação de:

Yt–1 = a0 + a1Xt–1 + et 1.10

Substituímos Yt–1 em 1.9 por Yt–1 = â0 + â1Xt–1:

Yt = α(1 – λ) + β0Xt + λYt–1 + νt 1.11

O quadro a seguir traz dados sobre o consumo pessoal per capita, DCPCt e renda pessoal disponível per capita, RPDPDt, dos Estados Unidos para o período entre 1959 e 2006. Veremos como funciona na prática a transformação de Koyck, estimando a seguinte função consumo de curto prazo, que é uma adaptação de Gujarati e Porter (2011):

DCPCt = α(1 – λ) + β0RPDpct + λDCPDCt–1 + νt 1.12

Page 107: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS ECONOMÉTRICOS DINÂMICOS

99

QUANDRO 3 – DESPESAS DE CONSUMO PESSOAL E RENDA PESSOAL DISPONÍVEL PER CAPITA, EUA, 1959 A 2006

FONTE: <https://www.govinfo.gov/content/pkg/ERP-2007/xls/ERP-2007-table31.xls>. Acesso em: 11 abr. 2019.

Data DCPC RPDPC Data DCPC RPDPC Data DCPC RPDPC1959 8.776 9.685 1975 13.320 15.291 1991 18.848 21.1091960 8.837 9.735 1976 13.919 15.738 1992 19.208 21.5481961 8.873 9.901 1977 14.364 16.128 1993 19.593 21.4931962 9.170 10.227 1978 14.837 16.704 1994 20.082 21.8121963 9.412 10.455 1979 15.030 16.931 1995 20.382 22.1531964 9.839 11.061 1980 14.816 16.940 1996 20.835 22.5461965 10.331 11.594 1981 14.879 17.217 1997 21.365 23.0651966 10.793 12.065 1982 14.944 17.418 1998 22.183 24.1311967 10.994 12.457 1983 15.656 17.828 1999 23.050 24.5641968 11.510 12.892 1984 16.343 19.011 2000 23.862 25.4721969 11.820 13.163 1985 17.040 19.476 2001 24.215 25.6971970 11.955 13.563 1986 17.570 19.906 2002 24.629 26.2351971 12.256 14.001 1987 17.994 20.072 2003 25.060 26.5531972 12.868 14.512 1988 18.554 20.740 2004 25.778 27.2541973 13.371 15.345 1989 18.898 21.120 2005 26.430 27.3181974 13.148 15.094 1990 19.067 21.281 2006 26.828 28.005

Para estimar o modelo 1.12 por mínimos quadrados em dois estágios no Gretl, você deve selecionar o menu “Modelo”, depois seleciona a opção “Variáveis instrumentais” e escolhe a opção “Mínimos Quadrados em Dois Estágios”. Preencha a janela de configuração do modelo conforme a figura a seguir.

Comece informando a variável dependente DCPCt, depois informe a variável explicativa R e, como instrumentos, informe a constante e a variável RPDPCt. Na parte de baixo da janela de configuração, você seleciona o botão “defasagens” e preenche conforme a Figura 2.

Page 108: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

100

FIGURA 1 – ESPECIFICAÇÃO DO MODELO 1.12 POR MQ2E

FONTE: O autor

O resultado da estimação está no Quadro 4. A partir desse resultado é possível obter o valor de λ = 0,8045. A partir daí é possível obter os valores da defasagem mediana e defasagem média através de:

( )( )

22 3,18640,8045

loglogDefasagemmedianalog logλ

= − = − = 1.13

0,8045 4,11511 1 0,8045

Defasagemmédia λλ

= = =− −

1.14

A defasagem mediana indica que 50% da mudança de uma unidade da renda leva cerca de 3,18 anos para fazer efeito sobre o consumo, e a defasagem média é de 4,11 anos.

Page 109: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS ECONOMÉTRICOS DINÂMICOS

101

FIGURA 2 – CONFIGURAÇÃO DAS DEFASAGENS DO MODELO 1.12

FONTE: o autor

QUADRO 4 – RESULTADO DA ESTIMAÇÃO DO MODELO 1.12 POR MQ2E

FONTE: O autor

Modelo 1: MQ2E, usando as observações 1960-2006 (T = 47)

Variável dependente: DCPC

Instrumentos: const RPDPC DCPC_1

coeficiente erro padrão razão-t p-valor

----------------------------------------------------------

const −247,400 159,022 −1,556 0,1269

RPDPC 0,207116 0,0696508 2,974 0,0048 ***

DCPC_1 0,804550 0,0721253 11,15 2,06e-014 ***

Média var. dependente 16696,94 D.P. var. dependente 5216,096

Soma resíd. quadrados 2279833 E.P. da regressão 227,6278

R-quadrado 0,998178 R-quadrado ajustado 0,998096

F(2, 44) 12055,26 P-valor(F) 5,37e-61

Log da verossimilhança −320,2425 Critério de Akaike 646,4851

Critério de Schwarz 652,0355 Critério Hannan-Quinn 648,5738

rô 0,504212 h de Durbin 3,976895

Page 110: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

102

Dividindo o resultado do modelo de curto prazo por 1 – λ, obtemos o modelo de longo prazo:

DCPCt = –1.265,47 + 1,0594RPDPCt 1.15

Notem que em 1.15 a propensão marginal a consumir de longo prazo é de 1,05. Isso significa que se a renda pessoal disponível aumentar em US$ 1,00, a despesa de consumo pessoal per capita aumentará aproximadamente US$ 1,05. No curto prazo esse aumento é de apenas US$ 0,20.

Podemos empregar a transformação de Koyck, com algumas adaptações, para construir um modelo de expectativas adaptativas. Segundo Pindyck e Rubinfeld (2004, p. 267), “O modelo de expectativas adaptativas postula que mudanças em Y se relacionam a mudanças no nível ‘esperado’ da variável explanatória X”.

Para entender como isso funciona, considere novamente os dados sobre despesas de consumo e renda per capita do Quadro 3 e o modelo a seguir:

DCPCt = β0 + β1RPDCt + ut 1.16

Onde DCPCt representa as despesas de consumo pessoal per capita, RPDPCt a renda pessoal disponível per capita esperada e ut é o termo de erro.

A título de exercício, suponha que as expectativas em relação ao nível de renda são alteradas a cada período como se o indivíduo recebesse uma remuneração variável. Dessa forma, ele altera as expectativas em relação a sua renda a cada período de tempo, ajustando o valor corrente da renda ao valor esperado anteriormente.

RPDPCt – RPDPCt–1 = Y(RPDPCt – RPDPCt–1) 1.17

Resolvendo para RPDPCt obtemos,

RPDPCt = YRPDPCt + (1 – Y)RPDPCt–1 1.18

Onde 0 < Y < 1 e, se Y = 1, RPDPCt = YRPDPCt, significando que o valor esperado da renda é igual ao seu valor atual, e portanto, não há expectativas de mudança na renda futura.

Podemos substituir 1.18 em 1.16, defasar o resultado um período, multiplicar o resultado por 1 – Y e, após manipulações algébricas, chegamos a uma forma do modelo estimável por regressão:

DCPCt = Yβ0 + Yβ1RPDPCt + (1 – Y)DCPCt–1 + νt 1.19

Com νt = ut – (1 – Y)ut–1.

*

*

*

*

* *

*

Page 111: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS ECONOMÉTRICOS DINÂMICOS

103

Em síntese, os indivíduos aprendem com seus erros e adaptam as suas expectativas olhando o passado. Como você deve ter percebido, o modelo 1.19 é semelhante ao modelo 1.12, com pequenas diferenças. A estimação de 1.19 se dá por mínimos quadrados em dois estágios e o resultado é o mesmo do Quadro 4, reproduzido em 1.20 com p-valor entre parêntesis, mas com interpretação diferente.

DCPCt = –247,400 + 0,2071RPDPCt + 0,8045DCPCt–1 1.20 (0,1269) (0,0048) (0,0000)

Em 1.20, Yβ0 = –247,4; Yβ1 = 0,2071 e (1 – y) = 0,8045. Com isso, o coeficiente de expectativas é Y ≈ 0,1955. Podemos dizer que cerca de 19% da discrepância entre o DCPC efetivo e o esperado são eliminados em um ano.

O método de Koyck pode ser empregado também para estimar modelos de ajustamento parcial e o de expectativas racionais. Ambos têm uma configuração semelhante a 1.12 e 1.19, e o método de estimação é por mínimos quadrados em dois estágios, mas o de ajustamento parcial pode ser estimado também por mínimos quadrados ordinários.

UNI

Para um aprofundamento sobre esses modelos, você pode consultar, na literatura econométrica, o Capítulo 18, do livro intitulado Introdução à econometira: uma abordagem moderna de Wooldridge (2016); Capítulo 9 da obra Econometria: modelos e previsões de Pindyck e Rubinfeld (2004); Capítulo 10, da obra Introdução à econometria de Maddala (2003) e Capítulo 17, do livro intitulado Econometria básica de Gujarati e Porter (2011).

IMPORTANTE

Leia este artigo com atenção para ampliar o conhecimento sobre o assunto.

O QUE OS ECONOMISTAS AINDA NÃO ENTENDERAM SOBRE A CRISE DE 2008

Noah Smith, Bloomberg, 5 de agosto de 2018

A macroeconomia tende a avançar – ou, pelo menos, a mudar – a cada crise. A Grande Depressão desacreditou a ideia de que as economias se corrigiam sozinhas e as décadas seguintes viram o desenvolvimento da teoria keynesiana e o uso dos estímulos orçamentais.

Page 112: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

104

A estagflação dos anos 1970 levou ao desenvolvimento de verdadeiros modelos de ciclo de negócios, que consideravam que as recessões faziam parte do funcionamento eficiente da economia e que a intromissão de um banco central provavelmente só causaria inflação. As dolorosas recessões do início dos anos 1980 provocaram uma transição para os chamados modelos neokeynesianos, nos quais a política monetária é a principal força estabilizadora da economia.

A bolha imobiliária que atingiu o pico em 2006, a crise financeira de 2008 e a Grande Recessão que veio depois constituem outra crise. Contudo, até agora ela produziu principalmente evolução, mais do que revolução, na concepção dos economistas sobre o ciclo de negócios.

A bolha e a crise que se seguiu convenceram os macroeconomistas de que as recessões muitas vezes emanam do sector financeiro – uma ideia muitas vezes rejeitada ou negligenciada anteriormente. Houve então uma enxurrada imediata de actividade, porque os economistas se apressaram em incluir as finanças nos seus modelos-padrão. Alguns acreditam agora que a adição das finanças permitirá que os modelos neokeynesianos prevejam as crises antes que elas aconteçam; outros mostram-se, compreensivelmente, cépticos.

Outro "insight" importante da Grande Recessão foi que a política monetária tradicional nem sempre é suficiente para estabilizar a economia – quando as taxas de juro chegam a zero, são necessárias outras medidas. Pode ser a flexibilização quantitativa, orientação futura [forward guidance, que consiste na comunicação de indicações explícitas sobre a orientação futura da política monetária] ou estímulo orçamental.

Como o pioneiro da nova escola keynesiana Jordi Galí observou num estudo recente, muito trabalho foi feito para descobrir como os modelos neokeynesianos podem lidar com taxas de juro zero. Muito trabalho também foi feito para tornar os modelos mais realistas, levando em consideração as grandes diferenças entre consumidores e empresas.

Essas inovações são importantes e abordam deficiências gritantes nos modelos pré-2008. Mas elas não parecem constituir uma grande ruptura em relação ao status quo. Mais importante ainda, a noção básica de que as recessões são impulsionadas pelas reacções de intervenientes racionais a acontecimentos repentinos e imprevisíveis – ou choques, como os economistas lhes chamam – continua em vigor.

Isso seria uma surpresa chocante para muitos de fora dos círculos acadêmicos. Para muitas pessoas, parece óbvio que a crise de 2008 passou muito tempo a desenvolver-se, que foi produto de anos de loucura financeira e regulatória. Em geral, a noção de que os booms econômicos provocam crises, em vez de serem eventos aleatórios e não relacionados – uma ideia desenvolvida pelo economista independente Hyman Minsky – parece ter muito mais adeptos fora do âmbito acadêmico do que dentro dele.

Mas pelo menos alguns economistas estão a trabalhar em algo mais revolucionário – uma nova interpretação de recessões, booms e mercados financeiros que se aproxima mais da noção popular de que os ciclos econômicos são previsíveis e movidos pela irracionalidade.

Os fundamentos dessa nova ideia estão dispostos numa apresentação de Nicola Gennaioli e Andrei Shleifer – dois especialistas em finanças comportamentais que se aventuram pelo campo da macroeconomia. Gennaioli e Shleifer baseiam-se em vários artigos recentes que sugerem que é possível prever recessões com anos de antecedência, bastando para isso prestar atenção às variáveis certas.

Page 113: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS ECONOMÉTRICOS DINÂMICOS

105

Um deles é um artigo de 2013 de Robin Greenwood e Samuel Hanson que mostra que quando a emissão de títulos de grau especulativo aumenta e os spreads de crédito diminuem, uma crise de crédito tende a ocorrer dois ou três anos depois. Outro é um artigo de 2016 de Matthew Baron e Wei Xiong, que apresenta um resultado semelhante para os empréstimos bancários, em vez de títulos corporativos.

Um terceiro artigo recente, de David López-Salido, Jeremy C. Stein e Egon Zakrajšek, adiciona spreads a prazo à lista de previsões de Greenwood e Hanson e conclui que, juntos, esses indicadores dão uma boa dose de advertência sobre recessões que acontecerão dois ou três anos depois. Outros documentos encontram uma correlação entre o rápido crescimento do crédito e o aumento do risco de recessão.

Todos esses documentos têm uma coisa em comum – usam a dívida para prever recessões com anos de antecedência. Isso condiz com a sabedoria popular que surgiu depois da crise de que os problemas nos mercados de crédito são a fonte tanto dos colapsos financeiros como das desacelerações econômicas que vêm depois.

Gennaioli e Shleifer explicam esses padrões voltando-se para a sua própria teoria preferida da irracionalidade humana – a teoria das expectativas extrapolativas. Basicamente, essa teoria sustenta que quando os preços dos activos sobem – o valor de casas, acções etc. – de modo ininterrupto, os investidores começam a acreditar que essa tendência representa um novo normal. Eles então acumulam esse activo, o que eleva ainda mais o preço e, aparentemente, confirma a ideia de que a tendência nunca vai acabar. Mas, quando o dinheiro dos investidores extrapolativos se esgota, a realidade instala-se e ocorre uma queda. Gennaioli, Shleifer e os seus coautores foram apenas uma das várias equipes de acadêmicos a investigar essa ideia e as suas implicações nos últimos anos.

Quando as expectativas extrapolativas são combinadas com um sistema financeiro inerentemente frágil, o resultado é um ciclo previsível de booms e crises. Em algum momento durante os tempos de prosperidade econômica, o entusiasmo irracional ganha força e empurra os preços das acções, dos imóveis ou de ambos para a estratosfera. Quando eles inevitavelmente caem, os bancos entram em colapso, arrastando o resto da economia com eles.

Esta hipótese, se se tornar o modelo padrão do ciclo de negócios, representará uma verdadeira revolução na macroeconomia. Ela descarta dois pilares do pensamento macroeconómico recente – expectativas racionais e recessões imprevisíveis, impulsionadas por choques. Isso representaria um triunfo para as ideias de Minsky e também para aqueles de fora do âmbito acadêmico que há muito tempo pedem que os macroeconomistas prestem mais atenção aos mercados da dívida e à psicologia humana. E se o código de booms e crises finalmente puder ser decifrado, pode haver maneiras de os bancos centrais, reguladores ou outros formuladores de políticas evitarem crises antes de elas começarem, em vez de enfrentarem as consequências depois.

Até agora, a hipótese de Gennaioli e Shleifer não está perto de ser dominante na macroeconomia. Mas, de todas as ideias que têm estado a ser apresentadas no campo, esta parece ser a mais interessante de acompanhar.

FONTE: <https://www.jornaldenegocios.pt/economia/detalhe/o-que-os-economistas-ainda--nao-entenderam-sobre-a-crise-de-2008>. Acesso em: 30 jan. 2019.

Page 114: EconomEtria ii - UNIASSELVI

106

RESUMO DO TÓPICO 1

Nesse tópico, você aprendeu que:

• Podemos modelar o comportamento dinâmico da economia através dos modelos de defasagens distribuídas e autorregressivos.

• Estimamos o modelo com defasagens distribuídas através do método de mínimos quadrados ordinários, seguindo Alt (1942) em que rodamos regressões sequenciais em busca de coeficientes estimados estatisticamente não significativos e mudança de sinal.

• Com a transformação de Koyck (1954), saímos de um modelo com defasagens distribuídas e terminamos em um modelo autorregressivo, o que nos permite estimar modelos de expectativas adaptativas, racionais e de ajustamento de estoques.

Page 115: EconomEtria ii - UNIASSELVI

107

AUTOATIVIDADE

1 Sobre modelos econométricos dinâmicos (autorregressivos e com defasagens distribuídas), avalie as afirmações a seguir informando V para as sentenças verdadeiras e F para as falsas.

a) ( ) O modelo de Koyck não fará muito sentido se alguns dos coeficientes defasados forem positivos e outros negativos.

b) ( ) Tecnicamente não é possível converter um modelo de defasagens distribuídas em um modelo autorregressivo.

c) ( ) Na abordagem de Koyck e no modelo de expectativas adaptativas, o método de mínimos quadrados ordinários não é o mais indicado para a estimação dos coeficientes.

d) ( ) Por outro lado, o método de mínimos quadrados ordinários é perfeitamente aplicável ao modelo de ajustamento parcial.

2 Imagine o seguinte modelo de expectativas adaptativas:

Yt = β0 + β1Xt + ut

onde Yt representa os gastos em investimentos em instalações e equipamentos fixos na indústria de transformação, Xt as vendas desejadas, e ut o termo de erro. Suponha também que as expectativas das vendas sejam formadas da seguinte forma:

Xt = yXt + (1 – y)Xt–1

Com base na hipótese das expectativas adaptativas, considerando a forma econometricamente estimável do modelo Yt = yβ0 + yβ1Xt + (1 – y)Yt–1 + νt, com νt = ut – (1 – y)ut–1, e dados obtidos no Economic Report of the President para o período 1970-1991, obteve-se os seguintes resultados:

Yt = 15,1040 + 0,6293Xt + 0,2717Yt–1 (–3,194) (6,433) (2,365)

Onde todos os coeficientes estimados são estatisticamente significativos.

*

*

* *

Page 116: EconomEtria ii - UNIASSELVI

108

São corretas as afirmativas:

a) ( ) Se, ao invés de estimar um modelo de expectativas adaptativas, tivéssemos estimado um modelo de Koyck, a taxa de declínio da defasagem distribuída seria 0,2717.

b) ( ) No caso do modelo de expectativas adaptativas, o coeficiente de expectativas é igual a 0,2717, o que significa que aproximadamente 27% da discrepância entre os gastos de investimentos previstos e o esperado desaparecerá em um ano.

c) ( ) Se o resultado se referisse a um modelo de ajustamento parcial, poderíamos dizer que, a relação entre investimentos e vendas de longo prazo seria Yt = –20,738 + 0,864Xt.

d) ( ) Como o modelo de expectativas adaptativas foi estimado por mínimos quadrados ordinários, podemos dizer que os coeficientes estimados são não apenas viesados, mas também não são consistentes.

e) ( ) Uma alternativa seria estimar o modelo de regressão pelo método de variáveis instrumentais.

Page 117: EconomEtria ii - UNIASSELVI

109

TÓPICO 2

MODELOS DE EQUAÇÕES SIMULTÂNEAS

UNIDADE 2

1 INTRODUÇÃO

Na Unidade 1 tivemos o primeiro contato com os modelos de séries temporais com equações simultâneas, em que todas as variáveis que entravam na equação eram endógenas. Para estimar aquele tipo específico de modelo, usamos o método de Vetores Autorregressivos, VAR.

Veremos agora outro tipo de modelos com múltiplas equações, só que desta vez separamos as variáveis endógenas das exógenas e predeterminadas, antes de rodar a regressão e estimar conjuntamente os parâmetros do modelo. Veremos que nesses modelos temos um fluxo de mão dupla, no sentido de que o comportamento das variáveis dependentes é determinado conjuntamente.

Primeiramente veremos alguns conceitos relativos a esses modelos, dando uma atenção especial à técnica de identificação. Precisamos saber se é possível resolver um sistema de equações simultâneas, ou seja, se conseguimos obter solução única para cada parâmetro do modelo.

Empregaremos um teste estatístico para verificar se de fato há simultaneidade entre as equações do modelo, e se houver, aplicaremos os métodos econométricos mais indicados para estimar esses modelos.

2 OS MODELOS DE EQUAÇÕES SIMULTÂNEAS

A forma mais clássica de se entender os sistemas de equações simultâneas é através dos modelos de oferta e demanda, em que determinamos conjuntamente o preço e a quantidade de que um determinado bem deve ser vendido para se atingir o equilíbrio nesse mercado particular.

Nesse sentido, Adkins (2014) traz um exemplo de oferta e demanda por trufas. Imagine que você está na França, e que decide estudar o funcionamento desse tipo específico de mercado. Para isso, considere o seguinte modelo de oferta e demanda:

qi = α1 + α2pi + α3psi + α4dii + ei 2.1qi = β1 + β2pi + β3pfi + ei 2.2

d

s

Page 118: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

110

A equação 2.1 representa a demanda e qi é a quantidade de trufas comercializadas em um determinado mercado. pi é o preço de mercado das trufas, psi é o preço de mercado dos bens substitutos, dii é a renda per capita disponível. A equação 2.2 representa a oferta e a variável pfi é o preço do fator de produção, ou seja, o custo associado à produção e consequente oferta de trufas. Você pode imaginar como custo associado à produção de trufas a locação de porcos trufeiros, utilizados pelos caçadores para localizar em baixo da terra a raiz dessa iguaria culinária. Tanto em 2.1 quanto em 2.2 i = 1, 2, ..., N.

Para obter o preço e a quantidade que equilibram esse mercado, igualamos a oferta e a demanda e solucionamos a equação resultante. Como tanto o preço quanto a quantidade são obtidos através da igualdade entre as equações 2.1 e 2.2, dizemos que essas duas variáveis são endógenas, no sentido de serem explicadas ou obtidas de dentro desse sistema de equações.

Sistemas de equações como os modelos 2.1 e 2.2 são comuns na microeconomia e na macroeconomia e por isso é importante que você saiba como estimá-los. Além disso, há um emprego para os sistemas de equações simultâneas extremamente importante. Trata-se de modelos de simulação, em que o pesquisar pode construir uma economia artificial usando vários sistemas de equações, capturando toda a dinâmica econômica e assim simular os efeitos de mudança em uma variável sobre a economia como um todo.

O problema em relação à estimação do sistema composto pelas equações 2.1 e 2.2 é que o método de mínimos quadrados ordinários só pode ser aplicado se os resíduos não forem correlacionados com as variáveis explicativas e cada modelo de regressão. Isso gera estimadores tendenciosos e inconsistentes.

3 A IDENTIFICAÇÃO

Precisamos identificar parâmetros consistentes para os sistemas de equações simultâneas. Para isso considere o seguinte conjunto de equações:

Qt = α0 + α1Pt + u1t 2.3Qt = β0 + β1Pt + u2t 2.4

Com α1 < 0 para a função demanda (2.3) e β1 > 0 para a função oferta (2.4). A condição de equilíbrio implica em Qt = Qt.

Em 2.3 e 2.4 temos quatro parâmetros a serem estimados, α0, α1, β0 e β1. Eles são chamados de parâmetros estruturais e são obtidos através das equações na forma reduzida. Para entender como obtê-los, considerando a condição de equilíbrio, temos Qt = Qt, e igualando as equações 2.3 e 2.4:

α0 + α1Pt + u1t = β0 + β1Pt + u2t 2.5

d

d

d

o

o

o

Page 119: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE EQUAÇÕES SIMULTÂNEAS

111

Resolvendo 2.5 para Pt obtemos:

α1Pt – β1Pt = β0 – α0 + u2t – u1t 2.6Pt(α1 – β1) = β0 – α0 + u2t – u1t 2.7

0 0 2 1

1 1 1 1

t tt

u uP β αα β α β

− −= +

− − 2.8

Fazendo �0

0 0

1 1

���

� �� �

e 2 1

1 1

t tt

u uvα β

−=

−, obtemos:

Pt = Π0 + νt 2.9

0 0 2 10 1 2

1 1 1 1

t tt t

u uQ uβ αβ βα β α β

− −= + + + − −

2.10

Após manipulações algébricas, obtemos a quantidade de equilíbrio:

1 0 1 0 1 2 1 1

1 1 1 1

t tt

u uQ α β β α α βα β α β

− −= +

− − 2.11

Fazendo 1 0 1 01

1 1

α β β αα β

−Π =

− e 1 2 1 1

1 1

t tt

u uw α βα β

−=

−, obtemos:

Qt = Π1 + wt 2.12

Temos agora quatro coeficientes estruturais nas equações 2.3 e 2.4 e para obtê-los, estimamos dois coeficientes na forma reduzida através das equações na forma reduzida, que são Π0 e Π1 nas equações 2.9 e 2.12.

Sabemos da álgebra que, para estimar quatro incógnitas estruturais (α0, α1,β0 e β1 de 2.3 e 2.4), precisamos de quatro equações, ou seja, quatro coeficientes da forma reduzida. Como nas equações 2.9 e 2.12, temos apenas dois coeficientes na forma reduzida, dizemos que esse sistema de equações 2.3 e 2.4 é subidentificado.

Vamos adicionar mais duas variáveis ao nosso sistema de equações para ver o que acontece. Na equação da demanda, incluiremos a variável renda do consumidor, representada por It. Na equação da oferta, incluiremos uma variável predeterminada, o preço do período anterior, Pt–1.

Qt = α0 + α1 Pt + α2It + u1t 2.13Qt = β0 + β1Pt + β2Pt–1 + u2t 2.14

Com α1 < 0, α2 > 0, β1 > 0, β2 > 0 e a condição de equilíbrio é Qt = Qt.d o

Π

Π

Page 120: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

112

Recorrendo a condição de equilíbrio, temos:

α0 + α1Pt + α2It + u1t = β0 + β1Pt + β2Pt–1 + u2t 2.15

Resolvendo para Pt obtemos:

0 0 2 12 21

1 1 1 1 1 1 1 1

t tt t t

u uP I Pβ α α βα β α β α β α β−

− −= − + +

− − − − 2.16

Fazendo 0 00

1 1

β αα β

−Π =

−, 2

11 1

αα β

Π = −−

, 22

1 1

βα β

Π =−

e 2 1

1 1

t tt

u uvα β

−=

−,

obtemos a equação na forma reduzida para o preço:

Pt = Π0 + Π1It + Π2Pt–1 + νt 2.17

Substituindo 2.16 em 2.13, obtemos:

0 0 2 12 20 1 1 2 1

1 1 1 1 1 1 1 1

t tt t t t t

u uQ I P I uβ α α βα α αα β α β α β α β−

− −= + − + + + + − − − −

2.18

Após manipulações algébricas, encontramos:

1 0 0 1 1 2 1 12 1 1 21

1 1 1 1 1 1 1 1

t tt t t

u uQ I Pα β α β α βα β α βα β α β α β α β−

− −= − + +

− − − − 2.19

Fazendo 1 0 0 13

1 1

α β α βα β

−Π =

−, 2 1

41 1

α βα β

Π = −−

, 1 25

1 1

α βα β

Π =−

e 1 2 1 1

1 1

t tt

u uw α βα β

−=

−, obtemos a equação na forma reduzida para a quantidade:

Qt = Π3 + Π4It + Π5Pt–1 + wt 2.20

Notem que, nesse sistema de equações, temos seis parâmetros estruturais para serem estimados, α0, α1, α2, β0, β1 e β2, e seis equações para estimá-los, ou seja, Π0, Π1, Π2, Π3, Π4 e Π5. Dessa forma dizemos que o sistema de equações formada por 2.13 e 2.14 é exatamente identificado, porque conseguimos obter estimações únicas para cada parâmetro estrutural a partir das equações na forma reduzida.

Se incluirmos mais uma variável na equação de demanda, digamos a riqueza do consumidor, representada por Rt, teremos o seguinte sistema de equações:

Qt = α0 + α1 Pt + α2It + α3Rt + u1t 2.21Qt = β0 + β1Pt + β2Pt–1 + u2t 2.22

d

o

Π

Π Π Π

Π Π

Π Π Π

Page 121: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE EQUAÇÕES SIMULTÂNEAS

113

d oNaturalmente, a condição de equilíbrio é Qt = Qt o que resulta em:

α0 + α1Pt + α2It + α3Rt + u1t = β0 + β1Pt + β2Pt–1 + u2t 2.23

Resolvendo para Pt, obtemos após alguns algebrismos:

0 0 3 2 12 21

1 1 1 1 1 1 1 1 1 1

t tt t t t

u uP I R Pβ α αα βα β α β α β α β α β−

− −= − − + +

− − − − − 2.24

Fazendo 0 00

1 1

β αα β

−Π =

−, 2

11 1

αα β

Π = −−

, 32

1 1

αα β

Π = −−

, 23

1 1

βα β

Π =− e

2 1

1 1

t tt

u uvα β

−=

−, obtemos a equação na forma reduzida para a equação do preço:

Pt = Π0 + Π1It + Π2Rt + Π3Pt–1 + νt 2.25

Substituindo 2.24 em 2.21, obtemos:

0 0 3 2 12 20 1 1 2 3 1

1 1 1 1 1 1 1 1 1 1

t tt t t t t t t

u uQ I R P I R uβ α αα βα α α αα β α β α β α β α β−

− −= + − − + + + + + − − − − −

2.26

Após transformações algébricas, obtemos:

1 0 0 1 3 1 1 2 1 12 1 1 21

1 1 1 1 1 1 1 1 1 1

t tt t t t

u uQ I R Pα β α β α β α βα β α βα β α β α β α β α β−

− −= − − + +

− − − − − 2.27

Fazendo 1 0 0 14

1 1

α β α βα β

−Π =

−, 2 1

51 1

α βα β

Π = −−

, 3 16

1 1

α βα β

Π = −−

, 1 27

1 1

α βα β

Π =−

e 1 2 1 1

1 1

t tt

u uw α βα β

−=

−, obtemos a equação na forma reduzida para a quantidade:

Qt = Π4 +Π5It + Π6Rt + Π7Pt–1 + wt 2.28

Agora temos sete coeficientes estruturais, α0, α1, α2, α3, β0, β1, β2, e há oito equações para estimá-los, Π0, Π1, Π2, Π3, Π4, Π5, Π6 e Π7. Com isso, não é possível obter uma estimativa única para todos os parâmetros do modelo. Por exemplo, para obter o β1 temos:

61

2

β Π=Π

2.29

51

1

β Π=Π

2.30

Π Π Π Π

Π Π Π Π

ΠΠΠΠ

Page 122: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

114

Há duas estimativas para o coeficiente do preço na equação de oferta e não há garantia de que esses dois valores ou soluções sejam idênticos. Há, portanto, informação em excesso para identificar todos os parâmetros do sistema de equações simultâneas.

Identificar os parâmetros do sistema de equações através das equações na forma reduzida é um processo extremamente cansativo. Maddala (2003) apresenta uma alternativa mais interessante. Trata-se da condição de ordem que funciona da seguinte maneira:

1. Verificamos quantas variáveis endógenas há no sistema como um todo e chamamos de g.

2. Verificamos quantas variáveis endógenas e exógenas há no sistema como um todo.3. Em cada equação contamos quantas variáveis (endógenas e exógenas) estão

ausentes, e chamamos de k.4. Em síntese, tomamos a decisão da seguinte forma:

Se k = g – 1, a equação é exatamente identificada. Se k > g – 1, a equação é superidentificada. Se k < g – 1, a equação é sub identificada.

Voltemos aos sistemas que analisamos anteriormente para verificar se chegamos aos mesmos resultados. Primeiro, o sistema de equações 2.3 e 2.4, que verificamos ser subidentificada.

Qt = α0 + α1Pt + u1t 2.3Qt = β0 + β1Pt + u2t 2.4

Nesse sistema o número de variáveis endógenas é g = 2. O número total de variáveis endógenas e exógenas também é igual a 2, porque só temos P e Q de variáveis no sistema.

Para a equação 2.3, g – 1 = 2 – 1 = 1, enquanto k, o número de variáveis ausentes nessa equação é zero, porque as duas variáveis estão presentes. Dessa forma, como k < g – 1, concluímos que 2.3 é subidentificada.

Para a equação 2.4, g – 1 = 2 – 1 =1, e k = 0 novamente k < g – 1, concluímos que 2.4 é subidentificada.

E quanto às equações 2.13 e 2.14? Anteriormente, vimos que elas eram exatamente identificadas.

Qt = α0 + α1Pt + α2It + u1t 2.13Qt = β0 + β1Pt + β2Pt–1 + u2t 2.14

d

o

d

o

Page 123: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE EQUAÇÕES SIMULTÂNEAS

115

d

o

d

o

o

d

Aplicando a condição de ordem para a equação 2.13, vemos que g – 1 = 2 – 1, porque temos apenas duas variáveis endógenas no sistema, P e Q. Em relação à k, como o número total de variáveis (endógenas e exógenas) no sistema é igual a 4, porque temos Pt, Qt, It e Pt–1, e temos apenas três variáveis naquela equação, concluímos que k = 1, porque esse é o número de variáveis endógenas e exógenas ausente nessa equação. Assim, para 2.13, k = g – 1, portanto, a equação é exatamente identificada.

Finalmente, voltamos a nossa atenção para o sistema composto pelas equações 2.21 e 2.22.

Qt = α0 + α1Pt + α2It + α3Rt + u1t 2.21Qt = β0 + β1Pt + β2Pt–1 + u2t 2.22

O sistema tem duas variáveis endógenas, P e Q, portanto, g – 1 = 2 – 1 = 1. O número total de variáveis no sistema como um todo é 5, Qt, Pt, It, Rt e Pt–1. Para a equação 2.21, temos quatro variáveis, portanto, k = 1. Como k = g – 1, dizemos que essa equação é exatamente identificada, contrariando o resultado que obtivemos anteriormente, quando dissemos que o sistema como um todo é superidentificado. Em relação à 2.22, k > g – 1, porque faltam duas variáveis naquela equação e portanto, k = 5 – 3 = 2, e a equação é superidentificada.

A identificação através das equações na forma reduzida além de complexa mostra-se ineficiente. Ela revela a identificação do sistema como um todo, mas não das equações do sistema de forma individual. Nesse sentido, a condição de ordem é melhor porque analisa cada uma das equações do sistema. O problema é que ela é uma condição necessária, mas não suficiente para identificação.

Maddala (2003) apresenta a condição de posto para identificação. Essa condição é suficiente para verificar se um sistema de equações é identificado. Para ver como funciona, considere novamente o sistema formado pelas equações 2.13 e 2.14.

Qt = α0 + α1Pt + α2It + u1t 2.13Qt = β0 + β1Pt + β2Pt–1 + u2t 2.14

Em duas oportunidades, dissemos que esse sistema de equações é exatamente identificado e, pela condição de ordem, verificamos que cada equação é individualmente identificada. Para aplicar a condição de posto, fazemos:

Qt – α0 – α1Pt – α2It = u1t 2.31Qt – β0 – β1Pt – β2Pt–1 = u2t 2.32

Devemos tabular as equações 2.31 e 2.32 da seguinte forma:

Equação Constante Qt Pt Pt–1 It

2.31 –α0 1 –α1 0 –α2

2.32 –β0 1 –β1 –β2 0

Page 124: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

116

Como vamos analisar a primeira equação, eliminamos a primeira linha e todas as colunas cujas entradas da primeira linha sejam diferentes de zero e calculamos o determinante da matriz que restou:

Det(2.31) = [–β2] ≠ 0, portanto, a equação em questão é identificada.

Se fizermos o mesmo procedimento para a equação 2.32 , concluiremos que:

Det(2.32) = [–α2] ≠ 0, portanto, a equação em questão é identificada.

Confirmamos assim, pela condição de posto, ambas as equações no sistema são identificadas. Em resumo, os passos para identificação pela condição de posto, conforme Gujarati e Porter (2011, p. 696) são:

1. Escreva o sistema em forma tabular.2. Cancele os coeficientes da linha na qual aparece a equação em apreço.3. Cancelar, também, as colunas correspondentes aos coeficientes do passo 2 que

são diferentes de zero.4. As entradas que restam na tabela nos apresentam somente os coeficientes das

variáveis incluídas no sistema, mas não na equação em pauta.5. Com essas entradas formamos todas as matrizes possíveis, de ordem M – 1, e

obtemos os determinantes correspondentes.6. Se pudermos encontrar pelo menos um determinante diferente de zero, a

equação em pauta é identificada.

Veremos a seguir que cada equação dentro de um sistema possui uma técnica econométrica específica, dependendo da equação ser identificada, subidentificada ou superidentificada.

4 A ESTIMAÇÃO

Antes de estimar um sistema de equações simultâneas, é preciso saber se existe ou não simultaneidade. A escolha da técnica econométrica adequada depende desse conhecimento, porque aplicar o método errado pode gerar estimadores inconsistentes.

Para resolver isso, Hausman (1978) desenvolveu um teste estatístico em dois estágios. O primeiro deles consiste em transformar o modelo estrutural na forma reduzida e o segundo, estimar essa regressão e aplicar o teste.

Para entender com mais clareza, considere os dados da tabela a seguir. Nosso interesse é calcular a propensão marginal a consumir para o Brasil, no período do 1º trimestre de 1995 até o 2º trimestre de 2008. Para isso, queremos estimar o seguinte modelo de regressão:

Page 125: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE EQUAÇÕES SIMULTÂNEAS

117

Ct = β0 + β1Yt + ut 2.33Yt = Ct + It 2.34

Onde Yt é o PIB a preços de mercado, em milhões de reais, escolhido como uma proxy para a renda. It é a formação bruta de capital fixo, em milhões de reais, escolhida como proxy para o investimento. Ct é o consumo final das famílias, em milhões de reais, escolhido como proxy para o consumo.

QUADRO 5 – PIB, FORMAÇÃO BRUTA DE CAPITAL FIXO E CONSUMO DAS FAMÍLIAS, BRASIL, 1º TRIMESTRE DE 1995 ATÉ 2º TRIMESTRE DE 2008

Período Y I C Período Y I C1995 T1 156.929,5 24.624,1 100.056,9 2001 T4 346.071,7 55.720,2 210.103,41995 T2 170.781,3 33.927,6 104.893,1 2002 T1 337.949,6 57.432,8 214.452,01995 T3 180.259,6 29.423,3 115.703,7 2002 T2 369.980,7 70.719,1 224.911,21995 T4 197.670,4 39.233,5 120.058,2 2002 T3 372.498,4 60.923,9 232.579,61996 T1 185.695,9 28.253,0 120.118,3 2002 T4 397.393,3 50.275,2 240.115,21996 T2 202.822,5 36.658,2 128.474,5 2003 T1 390.604,8 55.876,6 256.905,91996 T3 216.436,2 31.595,5 146.746,1 2003 T2 420.010,5 68.301,3 259.489,61996 T4 239.011,1 47.305,4 150.396,3 2003 T3 430.015,2 70.931,0 265.329,11997 T1 213.530,4 30.531,3 142.194,4 2003 T4 459.317,5 72.986,1 271.034,41997 T2 232.514,5 40.112,3 150.219,3 2004 T1 447.385,5 76.616,1 276.123,51997 T3 240.814,9 38.464,5 161.136,8 2004 T2 486.398,9 95.200,7 286.646,51997 T4 252.286,8 54.549,8 155.743,0 2004 T3 489.706,6 86.498,3 293.647,61998 T1 228.583,4 30.440,2 151.556,3 2004 T4 518.006,9 74.017,8 304.193,41998 T2 249.212,0 46.812,8 155.386,5 2005 T1 496.528,9 80.788,1 308.035,21998 T3 249.543,5 38.103,4 166.424,8 2005 T2 535.250,2 97.242,6 319.827,61998 T4 251.936,8 51.398,2 156.626,9 2005 T3 541.998,6 91.210,7 327.445,91999 T1 242.803,6 32.600,5 159.893,7 2005 T4 573.461,2 78.734,6 338.921,31999 T2 266.224,3 49.700,9 166.939,2 2006 T1 543.254,2 88.911,6 338.623,91999 T3 265.162,8 34.931,0 180.571,6 2006 T2 570.130,2 103.334,6 346.536,31999 T4 290.809,0 57.179,5 181.971,6 2006 T3 593.032,6 105.670,2 355.008,02000 T1 268.751,4 47.980,1 171.759,2 2006 T4 626.518,5 95.948,2 367.772,12000 T2 291.383,8 53.938,4 187.026,7 2007 T1 598.847,9 104.195,6 370.152,32000 T3 301.081,2 53.242,0 199.997,0 2007 T2 635.159,7 120.608,9 382.751,72000 T4 318.265,6 60.096,5 200.158,2 2007 T3 645.231,0 125.699,6 390.452,82001 T1 307.314,4 57.185,8 199.394,5 2007 T4 679.582,7 108.351,4 414.187,12001 T2 324.108,9 61.288,7 207.174,3 2008 T1 665.726,4 133.278,7 412.358,32001 T3 324.641,0 60.559,3 209.795,8 2008 T2 716.921,3 150.883,5 429.627,1

FONTE: <www.ipeadata.gov.br>. Acesso em: 11 abr. 2019.

Page 126: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

118

O primeiro passo consiste em obter a equação na forma reduzida para a renda. Esse procedimento é bem simples, e basta escrever o modelo como uma função de todas as variáveis exógenas e pré-determinadas existentes no sistema de equações simultâneas. Neste caso temos:

Yt = Π3 + Π4It + νt 2.35

Como o consumo e a renda são endógenas, ou seja, são variáveis determinadas dentro do sistema de equações, a única variável exógena é o investimento. A estimação do modelo por mínimos quadrados ordinários está no quadro a seguir.

QUADRO 6 – RESULTADO DA ESTIMAÇÃO DO MODELO 2.35 POR MQO

FONTE: o autor

Modelo 1: MQO, usando as observações 1995:1-2008:2 (T = 54)

Variável dependente: Y

coeficiente erro padrão razão-t p-valor

-----------------------------------------------------------

const 46127,7 15307,7 3,013 0,0040 ***

I 5,08793 0,212303 23,97 9,10e-030 ***

Média var. dependente 380658,5 D.P. var. dependente 158713,3

Soma resíd. quadrados 1,11e+11 E.P. da regressão 46168,56

R-quadrado 0,916978 R-quadrado ajustado 0,915381

F(1, 52) 574,3396 P-valor(F) 9,10e-30

Log da verossimilhança −655,5666 Critério de Akaike 1315,133

Critério de Schwarz 1319,111 Critério Hannan-Quinn 1316,667

rô 0,200426 Durbin-Watson 1,546508

Agora nós precisamos salvar Yt e os resíduos νt e reestimar a função consumo com a seguinte configuração:

Ct = β0 + β1Yt + δ1νt + ut 2.36

Depois é só testar a H0:δ1 = 0, ou seja, testamos a hipótese de que não há simultaneidade. Se aceitarmos a hipótese nula, estamos dizendo que a estimação por mínimos quadrados ordinários para a equação da renda gera resultados consistentes. A hipótese alternativa é que existe simultaneidade e nesse caso não podemos aplicar o método de mínimos quadrados ordinários.

Para salvar Yt e os resíduos νt, você deve selecionar o menu “Salvar” na janela de resultados e depois escolher “Valores ajustados” e depois escolhe “Resíduos”. O resultado da estimação do modelo 2.36 está no quadro a seguir.

Page 127: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE EQUAÇÕES SIMULTÂNEAS

119

FONTE: o autor

QUADRO 7 – RESULTADO DA ESTIMAÇÃO DE 2.36 POR MQO

Modelo 2: MQO, usando as observações 1995:1-2008:2 (T = 54)

Variável dependente: C

coeficiente erro padrão razão-t p-valor

-------------------------------------------------------------

const 15064,6 2387,06 6,311 6,66e-08 ***

yhat1 0,579608 0,00583128 99,40 4,65e-060 ***

uhat1 0,582820 0,0193797 30,07 4,03e-034 ***

Média var. dependente 235697,2 D.P. var. dependente 92251,24

Soma resíd. quadrados 2,12e+09 E.P. da regressão 6452,000

R-quadrado 0,995293 R-quadrado ajustado 0,995108

F(2, 51) 5392,033 P-valor(F) 4,52e-60

Log da verossimilhança −548,7753 Critério de Akaike 1103,551

Critério de Schwarz 1109,517 Critério Hannan-Quinn 1105,852

rô −0,092466 Durbin-Watson 2,168188

Como δ1 ≠ 0, rejeitamos a H0 de que não existe simultaneidade, a favor da hipótese alternativa de que as estimações por MQO não são consistentes. A saída é estimar esse modelo com o uso das técnicas discutidas a seguir.

O primeiro método empregado para estimar um sistema de equações simultâneas é o de mínimos quadrados ordinários. Esse método, no entanto, só deve ser usado se não houver interdependência entre o termo de erro e a variável endógena. Por esse motivo, aplicamos o teste de Hausman antes de estimar o sistema, afim de evitar estimadores viesados e inconsistentes.

Se estivermos diante de uma equação exatamente identificada, devemos aplicar o método de mínimos quadrados indiretos, que envolve a obtenção da equação na forma reduzida e sua estimação, e a partir do resultado se obtém o valor dos parâmetros estruturais.

Lembre-se de que uma equação exatamente identificada é aquela em que temos o mesmo número de parâmetros a serem definidos e de equações para sua obtenção. Para ver como funciona o método de mínimos quadrados indiretos, usaremos o exemplo do Gujarati e Porter (2011), cujos dados estão no Quadro 8.

Com base nesses dados, vamos estimar as relações entre o índice de produção de safra Q, o índice de preço da safra recebido por produtores Y, e a despesa real de consumo pessoal per capita X. O sistema de equações simultâneas é formado por:

Page 128: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

120

Qt = α0 + α1Pt + α2Xt + u1t 2.37Qt = β0 + β1 + u2t 2.38

A equação 2.37 é a função demanda e 2.38 é a função oferta. A condição de equilíbrio é Qt = Qt. Podemos verificar que a equação da demanda não é identificada enquanto a da oferta é exatamente identificada.

Pelo primeiro passo, obtemos as equações na forma reduzida:

Pt = Π0 + Π1Xt + wt 2.39Qt = Π2 + Π3Xt + νt 2.40

Onde, 0 00

1 1

β αα β

−Π =

−, 2

11 1

αα β

Π = −−

e 2 1

1 1

t tt

u uwα β

−=

−, 1 0 0 1

21 1

α β α βα β

−Π =

−,

2 13

1 1

α βα β

Π = −−

e 1 2 1 1

1 1

t tu uv α βα β

−=

−.

d

d

o

o

Os resultados da estimação das regressões na forma reduzida são:

Pt = 90,9601 + 0,000735879Xt 2.41Qt = 59,7618 + 0,00197254Xt 2.42

QUADRO 8 – PRODUÇÃO E PREÇO DE SAFRA E GASTOS DE CONSUMOPER CAPITA, EUA, 1975 ATÉ 2004

Ano Q P X Ano Q P X1975 66 88 4.789 1990 90 103 15.3491976 67 87 5.282 1991 90 101 15.7221977 71 83 5.804 1992 96 101 16.4851978 73 89 6.417 1993 91 102 17.2041979 78 98 7.073 1994 101 105 18.0041980 75 107 7.716 1995 96 112 18.6651981 81 111 8.439 1996 100 127 19.4901982 82 98 8.945 1997 104 115 20.3231983 71 108 9.775 1998 105 107 21.2911984 81 111 10.589 1999 108 97 22.4911985 85 98 11.406 2000 108 96 23.8621986 82 87 12.048 2001 108 99 24.7221987 84 86 12.766 2002 107 105 25.5011988 80 104 13.685 2003 108 111 26.4631989 86 109 14.546 2004 112 117 27.937

FONTE: <https://www.govinfo.gov/app/details/ERP-2007/context>. Acesso em: 11 abr. 2019.

Π Π Π

Π

Page 129: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE EQUAÇÕES SIMULTÂNEAS

121

Podemos verificar que os coeficientes estimados das equações estruturais

podem ser obtidos das relações 0 2 1 0ˆ ˆˆ ˆβ β= Π − Π e 3

11

ˆˆˆβ Π

.

Onde, 0 90,9601Π = , 1 0,000735879Π = − , 2 59,7618Π = ,

3 0,00197254Π = − . Substituindo obtemos os coeficientes estruturais da equação da oferta:

31

1

0,00197254 2,68050,000735

ˆ9

ˆˆ 87

β Π −= = =

−Π

( )0 2 1 0 59,7618 2,6805 90,9601 184,0567ˆ ˆˆ ˆβ β= Π − Π = − × = −

Ou seja, 5ˆ 184,0 67 2,6805ot tQ P= − +

A vantagem de usar mínimos quadrados indiretos nas equações exatamente identificadas é que eles geram estimadores consistentes e eficientes em amostras grandes. A desvantagem é que em amostras pequenas os estimadores são tendenciosos.

O método de mínimos quadrados em dois estágios é empregado para estimar equações superidentificadas. Vimos esse método de estimação no Tópico 1 desta unidade e pode ser empregado inclusive para estimar equações exatamente identificadas, gerando resultados idênticos aos de mínimos quadrados indiretos visto anteriormente. Neste caso MQI e MQ2E darão estimativas idênticas, como podemos ver no quadro a seguir.

QUADRO 9 – ESTIMAÇÃO DA EQUAÇÃO DE OFERTA POR MQ2E

FONTE: O autor

Modelo 1: MQ2E, usando as observações 1975-2004 (T = 30)Variável dependente: QInstrumentado: P Instrumentos: const X

coeficiente erro padrão razão-t p-valor -------------------------------------------------------- const −184,059 91,2304 −2,018 0,0533 * P 2,68052 0,892762 3,003 0,0056 ***

Média var. dependente 89,53333 D.P. var. dependente 14,05588Soma resíd. quadrados 16725,89 E.P. da regressão 24,44081R-quadrado 0,242502 R-quadrado ajustado 0,215449F(1, 28) 9,015052 P-valor(F) 0,005583Log da verossimilhança −231,3850 Critério de Akaike 466,7700Critério de Schwarz 469,5724 Critério Hannan-Quinn 467,6665rô 0,542435 Durbin-Watson 0,904685

Teste de Hausman - Hipótese nula: as estimativas por MQO são consistentes Estatística de teste assintótica: Qui-quadrado(1) = 349,708 com p-valor = 4,90631e-078

Π

ΠΠ

Π Π

Π Π Π

Π Π ΠΠ

Page 130: EconomEtria ii - UNIASSELVI

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

122

O resultado do Quadro 9, usando o método de mínimos quadrados em dois estágios traz o teste de Hausman, que nos informa que a estimação por MQO não é consistente, motivo pelo qual usamos MQ2E.

Há uma série de outros métodos de estimação que pode ser usada em sistemas de equações simultâneas, tais como o método das variáveis instrumentais, a estimação por máxima verossimilhança (com informação completa e com informação limitada), regressões aparentemente não relacionadas (SUR), mínimos quadrados em três estágios, entre outros.

Todas essas técnicas possuem rotinas prontas no Gretl, por isso, para um aprofundamento nessas técnicas, procure as obras citadas nas referências deste livro didático.

Page 131: EconomEtria ii - UNIASSELVI

123

RESUMO DO TÓPICO 2

Nesse tópico, você aprendeu que:

• Alguns modelos econômicos requerem a utilização de modelos de equações simultâneas para a determinação conjunta dos parâmetros das variáveis.

• Para estimar um sistema de equações simultâneas pelo método de mínimos quadrados ordinários, os resíduos não podem ser correlacionados com as variáveis explicativas em cada equação do sistema, pois, caso haja correlação, os estimadores serão tendenciosos e inconsistentes.

• A identificação consiste em identificar parâmetros consistentes para os sistemas de equações simultâneas.

• Uma equação de um determinado sistema pode ser subidentificada, exatamente identificada ou superidentificada.

• Uma forma de saber se a equação é identificada é obter a estimação da equação na forma reduzida e a partir daí deduzir os parâmetros estruturais.

• Identificar os parâmetros do sistema de equações através das equações na forma reduzida é complexo e ineficiente. Uma alternativa mais rápida é a condição de ordem, que é uma condição necessária, mas não suficiente para a identificação.

• A condição de posto para identificação é uma condição suficiente para verificar se um sistema de equações é identificado. Para empregar essa técnica, recorremos à álgebra matricial, obtendo matrizes de ordem M – 1 e calculando os determinantes correspondentes. Se pudermos encontrar pelo menos um determinante diferente de zero, a equação em pauta é identificada.

• O emprego da técnica correta para estimação de uma equação pertencente a um sistema de equações simultâneas dependerá de a equação ser exatamente identificada ou superidentificada.

• Se a equação for exatamente identificada, podemos empregar o método de mínimos quadrados ordinários. Os estimadores obtidos por essa técnica serão consistentes e eficientes em amostras grandes, mas em amostras pequenas serão tendenciosos.

• Se a equação for superidentificada, podemos aplicar o método de mínimos quadrados em dois estágios ou o método de mínimos quadrados indiretos.

Page 132: EconomEtria ii - UNIASSELVI

124

AUTOATIVIDADE

1 Em modelos de equações simultâneas, são corretas as afirmativas a seguir:

a) ( ) O problema da identificação precede o da estimação.b) ( ) Se a condição de ordem for satisfeita, a condição de posto também será

satisfeita. A condição de ordem é uma condição necessária, mas não suficiente para identificação.

c) ( ) Os estimadores de mínimos quadrados indiretos e os de mínimos quadrados em dois estágios são não tendenciosos e consistentes independentemente do tamanho da amostra. A não tendenciosidade dos estimadores de MQI em amostras pequenas não são válidas.

d) ( ) Se uma equação é exatamente identificada, os métodos de mínimos quadrados indiretos e de dois estágios produzem resultados idênticos. Pode ser empregado para estimar equações exatamente identificadas; neste caso MQI e MQ2E darão estimativas idênticas.

e) ( ) O método de mínimos quadrados indiretos pode ser aplicado tanto a equações exatamente identificados quanto a equações superidentificadas.

2 Considere o seguinte modelo de equações simultâneas:

Y1t = δ1Y2t + α11X1t + u1t (1)Y2t = δ2Y3t + α22X2t + u2t (2)Y3t = δ3Y2t + α31X1t + α32X2t + u3t (3)

Em que Y1t, Y2t e Y3t são variáveis endógenas, X1t e X2t são variáveis exógenas, e u1t, u2t e u3t são os termos de erro.

Indique se cada uma das afirmações a seguir é verdadeira (V) ou falsa (F):

a) ( ) A condição de ordem para identificação de equações simultâneas é satisfeita pelas equações (1) e (2), mas não é satisfeita pela equação (3).

b) ( ) A equação (2) será identificada, pela condição de ordem, caso acrescentemos a variável X1t naquela equação.

c) ( ) Suponha que a condição de ordem afirmasse que a equação (1) é identificada, enquanto a condição de posto afirmasse que ela não é identificada. Neste caso, devemos sempre confiar na condição de ordem, que é uma condição suficiente para a identificação.

d) ( ) Podemos estimar a equação (3) por Mínimos Quadrados Indiretos (MQI).e) ( ) A equação (2) pode ser estimado por Mínimos Quadrados Ordinários.

Page 133: EconomEtria ii - UNIASSELVI

125

TÓPICO 3

PRECEDÊNCIA EM ECONOMIA

UNIDADE 2

1 INTRODUÇÃO

Estamos habituados a rodar regressões com o intuito de verificar se uma variável tem influência sobre a outra em termos estatísticos. No entanto, essas estimativas nos oferecem apenas uma correlação matemática e estatística, mas se quisermos saber se uma variável causa a outra, no sentido estrito da palavra, é na teoria econômica que teremos que nos apoiar, e não na estatística.

O que queremos dizer é que se estamos estudando as relações entre renda e consumo, sabemos por experiência própria que se tivermos um aumento na nossa renda nominal, inevitavelmente estaremos propensos a aumentar o nosso consumo, mas não na mesma proporção desse aumento da renda. Essa é, em síntese, o que prega a teoria keynesiana sobre a propensão marginal a consumir.

Se rodarmos uma regressão, tendo como variável dependente o consumo e relacionando a renda como explicativa, descobriremos, após o tratamento estatístico apropriado, a medida dessa proporção do aumento da renda que se converte em consumo. No entanto, esse resultado não nos diz o quanto do consumo é causado pela renda, apenas mede o grau de dependência do consumo em relação à renda, ou seja, uma dependência meramente estatística.

Imagine agora que a autoridade monetária está interessada em manter o poder de compra da moeda e para isso ela controla a taxa básica de juros da economia. Ao alterar a taxa, os agentes econômicos esperam que a inflação no futuro se reduza, mas entendem que um efeito colateral possível é a redução da demanda. Da mesma forma, sabemos que uma redução na demanda afeta a expectativa em relação aos preços futuros, e consequentemente em relação à taxa de juros.

Aqui não falamos em causalidade no sentido estrito da palavra, mas sim no comportamento de uma variável que é capaz de afetar a trajetória temporal de outra variável. Por isso, em econometria, o termo causalidade na maioria das vezes é empregado no sentido de Granger (1969), que tem mais a ver com o conceito de precedência do que causalidade propriamente dita.

Page 134: EconomEtria ii - UNIASSELVI

126

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

O que faremos na primeira parte desse tópico é analisar a causalidade no sentido de Granger (1969) e na segunda parte aprenderemos sobre uma técnica especialmente importante dentro da econometria. Trata-se da análise de regressão usando grande quantidade de amostragens aleatórias através de simulações, conhecido como experimentos de Monte Carlo.

2 CAUSALIDADE DE GRANGER

A ideia por traz do estudo da causalidade desenvolvida por Granger (1969) é que o futuro não pode causar o presente nem o passado. Quando o passado causa o presente ou o futuro, é chamada de causalidade estrita e somente em processos estocásticos é possível se estabelecer uma relação de causalidade (GRANGER; NEWBOLD, 1977, p. 225).

Granger (1969) estava interessado em jogar luz sobre as relações entre certas classes de modelos econométricos envolvendo feedbacks como vimos acontecer nos modelos de equações simultâneas estudados anteriormente.

Existem três situações possíveis:

1. Uma causalidade unidirecional, no sentido de que Y causa no sentido de Granger X, mas X não causa no sentido de Granger Y.

2. Feedback ou causalidade bilateral, em que tanto Y causa no sentido de Granger X, quanto X causa no sentido de Granger Y.

3. E, finalmente, a independência, quando não há efeito causal no sentido de Granger entre as variáveis.

Para entender como funciona o teste de Granger na prática, vamos usar os dados do Quadro 10. Os dados utilizados foram obtidos no site do Ipeadata e a amostra é constituída de dados trimestrais abrangendo o primeiro trimestre de 1996 até o terceiro trimestre de 2014.

Utilizamos a série do Produto Interno Bruto (PIB) a preços de mercado, como proxy, para o investimento agregado, utilizamos a soma da formação bruta de capital fixo com a variação de estoques e, para a poupança agregada, utilizamos a poupança nacional bruta. Todas as séries são em milhões de reais e tem como referência o ano de 2010.

Muitas vezes, a análise dos dados diretamente não gera resultados desejáveis, porque, como vimos na Unidade 1, as séries temporais são compostas por componentes sazonal, cíclico, de tendência e errático. É necessário limpar as séries desses componentes para podermos extrair as relações corretas entre elas.

Tendo isso em mente, fiz o seguinte tratamento dos dados: primeiro, obtive os valores nominais das séries de investimento agregado, poupança agregada e PIB, e os deflacionei pelo Índice Geral de Preços – Disponibilidade Interna (IGP-DI, agosto de 1994 = 100), utilizando a seguinte fórmula:

Page 135: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

127

:i

i j ji

PPR II

= ×

3.1

Onde PRi:j é o valor real da variável do período i em relação ao valor do período j, Pi é o valor nominal da variável no período i, Ii é o IGP-DI no período i e Ij é o IGP-DI no período j.

O próximo passo consistiu em pegar as séries transformadas pelo passo anterior e ajustá-las sazonalmente pelo método X-12-ARIMA, que é um programa utilizado para ajustamento sazonal desenvolvido pelo www.census.gov. O Gretl tem a rotina pronta para esse método de dessazonalização, porém, é preciso que você o baixe no site: <http://sourceforge.net/projects/gretl/files/x12a/x12a_install.exe/download>.

O investimento bruto e a poupança nacional bruta são apresentados como a razão da poupança nacional bruta pelo PIB e a razão do investimento bruto pelo PIB, respectivamente.

QUADRO 10 – POUPANÇA E INVESTIMENTO COMO PROPORÇÃO DO PIB. BRASIL, 1º TRIMESTRE DE 1996 ATÉ 3º TRIMESTRE DE 2014

Período Poupança Investimento Período Poupança Investimento1996 T1 0,184035 0,187601 2005 T3 0,167324 0,1694581996 T2 0,171025 0,18019 2005 T4 0,162179 0,1635111996 T3 0,156049 0,166452 2006 T1 0,175274 0,1776931996 T4 0,140983 0,159182 2006 T2 0,166166 0,1772581997 T1 0,156506 0,187275 2006 T3 0,176379 0,1759221997 T2 0,137086 0,164917 2006 T4 0,172967 0,1812111997 T3 0,155061 0,179434 2007 T1 0,185736 0,2002381997 T4 0,185497 0,180544 2007 T2 0,177455 0,1956721998 T1 0,160495 0,181506 2007 T3 0,173416 0,1993971998 T2 0,165634 0,18583 2007 T4 0,171692 0,19741998 T3 0,14754 0,182607 2008 T1 0,187902 0,2243681998 T4 0,144771 0,181216 2008 T2 0,190171 0,223311999 T1 0,151895 0,179331 2008 T3 0,181763 0,215651999 T2 0,161824 0,18439 2008 T4 0,172608 0,2020851999 T3 0,116092 0,156945 2009 T1 0,156337 0,1883941999 T4 0,130654 0,181465 2009 T2 0,149133 0,1759842000 T1 0,158848 0,211898 2009 T3 0,147506 0,1794212000 T2 0,12489 0,18105 2009 T4 0,165578 0,206939

Page 136: EconomEtria ii - UNIASSELVI

128

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

FONTE: <www.ipeadata.gov.br>. Acesso em: 11 abr. 2019.

2000 T3 0,138554 0,184526 2010 T1 0,173395 0,2195992000 T4 0,13346 0,186401 2010 T2 0,169075 0,2176022001 T1 0,141221 0,203327 2010 T3 0,17312 0,2230992001 T2 0,132511 0,18608 2010 T4 0,16768 0,214642001 T3 0,13599 0,189788 2011 T1 0,174089 0,2259762001 T4 0,128173 0,174889 2011 T2 0,167607 0,2203582002 T1 0,146599 0,188217 2011 T3 0,162823 0,214332002 T2 0,149945 0,190759 2011 T4 0,151953 0,2163732002 T3 0,15124 0,168603 2012 T1 0,1555 0,2264672002 T4 0,138081 0,15552 2012 T2 0,139444 0,2180672003 T1 0,148326 0,16456 2012 T3 0,124251 0,2104922003 T2 0,146622 0,156145 2012 T4 0,118961 0,2059312003 T3 0,159458 0,167126 2013 T1 0,131382 0,2268052003 T4 0,173845 0,182727 2013 T2 0,131746 0,21882004 T1 0,191381 0,190471 2013 T3 0,124291 0,2182232004 T2 0,192647 0,180583 2013 T4 0,116479 0,2069262004 T3 0,17722 0,174589 2014 T1 0,116825 0,219322004 T4 0,172224 0,171178 2014 T2 0,110844 0,2027612005 T1 0,1842 0,179363 2014 T3 0,112433 0,201832005 T2 0,173984 0,176771

Vamos verificar se as variações na poupança como proporção do PIB influenciam as variações nos investimentos, como proporção do PIB ou se são as variações nos investimentos agregados que influenciam a poupança.

Para isso, considere o seguinte modelo:

Poupt = Σi=1 αiInvt–1 + Σj=1 βjPoupt–j + u1t 3.2

Invt = Σi=1 λiInvt–1 + Σj=1 δjPoupt–j + u2t 3.3

Para que o investimento cause no sentido de Granger a poupança, é necessário que αi ≠ 0. Da mesma forma, a poupança causará o investimento no sentido de Granger se δj ≠ 0. Caso αi = δj ≠ 0, dizemos que a relação de causalidade no sentido de Granger é bidirecional ou de feedback. A independência é obtida para os conjuntos de coeficientes de St e It estatisticamente iguais a zero, αi = δj = 0.

n

n n

n

Page 137: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

129

Seguindo Gujarati e Porter (2011, p. 649), os seguintes passos deverão ser empregados para rodar o teste:

1. Calcule a regressão da poupança contra todos os termos da poupança defasados e outras variáveis, se houver, mas não inclua as defasagens da variável investimento nessa regressão. Chamaremos o resultado de regressão restrita e salvaremos a soma dos quadrados dos resíduos, SQRR.

2. No segundo passo, devemos rodar a regressão da poupança incluindo as demais variáveis e inclusive os termos da variável investimento defasados. Chamaremos o resultado de regressão irrestrita e salvaremos a soma de quadrados dos resíduos irrestritos, SQRUR.

3. Construímos o teste de hipótese, declarando que H0:αi = 0 para todo i = 1,2, ..., n, ou seja, os termos da variável investimento defasados não pertencem à regressão.

4. Aplique o teste /

/R IR

IR

SQR SQR mFSQR n k

−=

− , onde m é o número de termos da variável investimento defasados e k é o número de parâmetros estimados na regressão sem restrição.

5. Se o F calculado for maior que o F da tabela nos níveis de significância estabelecidos, rejeitamos a H0, e neste caso, investimento causa no sentido de Granger a variação da poupança.

6. Repita para a equação do investimento a fim de verificar se a poupança causa no sentido de Granger o investimento.

Não se assuste com a quantidade de passos. O Gretl ajudará a resolver esse problema. Abra o menu “Arquivo”, depois selecione “Arquivos de script”, na sequência selecione “Novo script” e depois escolha “Script gretl”, conforme a figura a seguir.

FIGURA 3 – SCRIPT DE COMANDOS DO GRETL

FONTE: O autor

Page 138: EconomEtria ii - UNIASSELVI

130

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

Após abrir o arquivo de script do Gretl, digite a seguinte sequência de comandos para testar a hipótese nula de que o investimento não causa no sentido de Granger a poupança:

# Esse script tem como H0: Investimento não causa no sentido de

Granger a Poupança# Teste com uma defasagemols Poup Poup(-1)scalar SQR_R1 = $essols Poup Inv(-1) Poup(-1)scalar SQR_IR1 = $ess# Teste F com m = 1 e n-k = 74-2=72genr Fstat1 = ((SQR_R1-SQR_IR1)/1)/(SQR_IR1/72)#P-Valor para a estatística F com 1 e 72 graus de liberdadepvalue F 1 72 Fstat1## Teste com duas defasagensols Poup Poup(-1) Poup(-2)scalar SQR_R2 = $essols Poup Inv(-1) Inv(-2) Poup(-1) Poup(-2)scalar SQR_IR2 = $ess# Teste F com m = 2 e n-k = 73-4=69genr Fstat2 = ((SQR_R2-SQR_IR2)/2)/(SQR_IR2/69)#P-Valor para a estatística F com 2 e 69 graus de liberdadepvalue F 2 69 Fstat2## Teste com três defasagensols Poup Poup(-1) Poup(-2) Poup(-3)scalar SQR_R3 = $essols Poup Inv(-1) Inv(-2) Inv(-3) Poup(-1) Poup(-2) Poup(-3)scalar SQR_IR3 = $ess# Teste F com m = 3 e n-k = 72-6=66genr Fstat3 = ((SQR_R3-SQR_IR3)/3)/(SQR_IR3/66)#P-Valor para a estatística F com 3 e 66 graus de liberdadepvalue F 3 66 Fstat3## Teste com quatro defasagensols Poup Poup(-1) Poup(-2) Poup(-3) Poup(-4)scalar SQR_R4 = $essols Poup Inv(-1) Inv(-2) Inv(-3) Inv(-4) Poup(-1) Poup(-2) Poup(-3) Poup(-4)scalar SQR_IR4 = $ess# Teste F com m = 4 e n-k = 71-8=63genr Fstat4 = ((SQR_R4-SQR_IR4)/4)/(SQR_IR4/63)#P-Valor para a estatística F com 4 e 63 graus de liberdadepvalue F 4 63 Fstat4

Após digitar os comandos, pressione as teclas “Control R” ou clique no botão executar, conforme ilustrado na figura a seguir.

Page 139: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

131

FIGURA 4 – JANELA DE SCRIPT DE COMANDO DO GRETL

FONTE: O autor

Esse mesmo procedimento deve ser feito para testar a hipótese nula de que a poupança não causa o investimento e neste caso você substitui a variável dependente Poup por Inv e ajusta o modelo restrito para conter apenas a variável Inv defasada. O Gretl executará cada linha de comando digitado e reportará o resultado de cada ação.

De todo o resultado, apenas algumas informações interessam-nos. Eu sintetizei as informações mais importantes no quadro a seguir e relacionei o resultado tanto da hipótese nula de que o investimento não causa a poupança quanto a hipótese nula de que a poupança não causa o investimento.

Page 140: EconomEtria ii - UNIASSELVI

132

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

QUADRO 11 – RESULTADO DO TESTE DE GRANGER

Variável dependente Hipótese Nula Defasagens Obs Estatística F p-valor

Poupança Investimento não causa a poupança 1 74 0,0741 0,7862

Poupança Investimento não causa a poupança 2 73 0,4073 0,6671

Poupança Investimento não causa a poupança 3 72 0,3942 0,7575

Poupança Investimento não causa a poupança 4 71 0,3690 0,8298

Investimento Poupança não causa o investimento 1 74 0,0533 0,8181

Investimento Poupança não causa o investimento 2 73 0,9821 0,3797

Investimento Poupança não causa o investimento 3 72 1,1902 0,3203

Investimento Poupança não causa o investimento 4 71 1,3468 0,2626

FONTE: O autor

Percebam que nenhum resultado permite-nos rejeitar a hipótese nula, o que nos leva a concluir que as variáveis investimento e poupança real, como proporção do PIB, são independentes no tempo para o caso brasileiro, no período entre 1996 e 2014. Obviamente esse resultado não esgota o tema, até mesmo porque, a literatura econômica diz que essas variáveis são correlacionadas o que abre espaço para muita discussão, dado a relevância delas na dinâmica do crescimento econômico.

Um dos fatores que pode alterar os resultados do teste é a necessidade das séries serem estacionárias. Esse problema superamos e ainda eliminamos o componente sazonal, o que valida o resultado obtido. Caso as séries não passem em um teste de raiz unitária, você deve tirar a primeira diferença ou aplicar um filtro como fizemos nesse exemplo.

O outro problema do teste é a sua sensibilidade a defasagens. Note que rodamos o teste para quatro defasagens. Esse procedimento é trabalhoso, mesmo com o auxílio da janela de scripts do Gretl. Uma alternativa que vem sendo utilizada em diversos trabalhos é usar como critério de seleção do número de defasagens a rotina de seleção de defasagens do VAR, que já vem pronta no Gretl, no menu “Modelo”, “Série temporal”, “Multivariado” e “Seleção de defasagens VAR”. Lembre-se de desmarcar a opção de “Incluir uma constante” e deixar que o Gretl sugira o número máximo de defasagens.

O quadro a seguir apresenta o resultado da seleção de defasagens. Note que a seleção de defasagens segue os critérios de informação já conhecidos por nós. Neste caso, os critérios Schwarz e Hannan-Quin indicam que o número máximo de defasagens é 1, enquanto o critério de Akaike informa que devemos usar 7 defasagens.

Page 141: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

133

QUADRO 12 – SELEÇÃO DE DEFASAGENS VAR

FONTE: O autor

Sistema VAR, máximo grau de defasagem 8

Os asteriscos abaixo indicam os melhores (isto é, os mínimos) valoresdos respectivos critérios de informação. AIC = critério de Akaike,BIC = critério Bayesiano de Schwarz, e HQC = critério de Hannan-Quinn.

defas. log.L p(LR) AIC BIC HQC

1 431,74563 -12,768526 -12,636903* -12,716443* 2 435,89022 0,08154 -12,772842 -12,509596 -12,668675 3 438,10616 0,35070 -12,719587 -12,324716 -12,563336 4 440,54665 0,29973 -12,673034 -12,146541 -12,464700 5 442,51646 0,41424 -12,612432 -11,954314 -12,352013 6 446,92026 0,06609 -12,624485 -11,834745 -12,311983 7 456,22802 0,00094 -12,782926* -11,861562 -12,418340 8 460,09808 0,10158 -12,779047 -11,726060 -12,362377

Utilizar essa rotina pronta antes de rodar o teste poupa-nos um tempo considerável e ainda podemos estimar o modelo VAR e obter a partir da janela de resultado o teste de causalidade de Granger, cujos resultados resumidos para uma defasagem estão no quadro a seguir.

QUADRO 13 – RESULTADO DO TESTE DE CAUSALIDADE DE GRANGER PARAUMA DEFASAGEM USANDO O RESULTADO DO VAR

FONTE: o autor

Sistema VAR, grau de defasagem 1Estimativas MQO, observações 1996:2-2014:3 (T = 74)

Equação 1: Poup

Testes-F com zero restrições:

Todas as defasagens de Poup F(1, 72) = 259,82 [0,0000]Todas as defasagens de Inv F(1, 72) = 0,074093 [0,7862]

Equação 2: Inv

Testes-F com zero restrições:

Todas as defasagens de Poup F(1, 72) = 0,053308 [0,8181]Todas as defasagens de Inv F(1, 72) = 423,74 [0,0000]

Page 142: EconomEtria ii - UNIASSELVI

134

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

Compare os resultados do Quadro 13 com os do Quadro 11 para uma defasagem. Você perceberá que chegamos ao mesmo resultado, só que com menos esforço, mitigando o risco de digitarmos um comando errado em uma das linhas de script.

Você será convidado a rodar o teste de Granger para 7 defasagens no exercício no final desse tópico e perceberá a importância de se definir um critério para a seleção de defasagens, porque, com 7 defasagens, rejeitamos a hipótese nula de que o investimento não causa a poupança o sentido de Granger, com 5% de significância estatística.

3 ESTIMAÇÃO BASEADA EM SIMULAÇÃO

Veremos agora uma das aplicações econométricas que mais tem crescido nos últimos anos em razão da evolução computacional. Trata-se da estimação baseada em simulação. Na Unidade 1, você teve a oportunidade de fazer diversas simulações. Naquela oportunidade estávamos interessados em entender o padrão de comportamento de séries temporais específicas, para podermos saber o que esperar encontrar na prática ao analisar o comportamento de séries como ruído branco, processo autorregressivo, passeio aleatório, entre outros.

Ainda na Unidade 1, vimos o teste de raiz unitária de Dickey e Fuller, que não utilizam as tabelas estatísticas conhecidas, como t, F ou X2, mas sim a distribuição t, desenvolvida pelos autores com base em simulações de Monte Carlo. Aliás, não é apenas o teste de raiz unitária, mas também os demais testes estatísticos e tabelas de distribuição são obtidos através de simulações como os experimentos de Monte Carlo.

A expressão experimentos de Monte Carlo devem-se ao fato de que este tipo de simulação envolve a geração de números aleatórios ou resultados aleatórios, como os que são obtidos nos jogos de cassino. Na época em que as simulações por computador se tornaram possíveis, como relata Davidson e Mackinnon (2003), o cassino mais famoso estava em Monte Carlo, mas se o desenvolvimento dessas simulações computacionais ocorresse mais tarde, provavelmente se chamariam experimentos de Las Vegas!

Kennedy (2009, p. 19) define um experimento de Monte Carlo como “[...] um exercício de simulação por computador projetado para dar luz às propriedades de amostra pequena dos estimadores para determinado problema de estimação”.

Maddala (2003, p. 318) resume rapidamente os procedimentos preliminares do método de Monte Carlo nos seguintes passos:

1. Escolha do modelo.2. Determina o tamanho da amostra N.3. Fixa os parâmetros em certos valores.4. Retira amostras repetidas da distribuição do termo de erro.

Page 143: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

135

A partir daí você dispõe de N dados que utilizará para estimar os parâmetros e repetirá esse procedimento M vezes. Dessas repetições você extrai a distribuição amostral das estimativas dos parâmetros da amostra de tamanho N, e irá comparar com a distribuição assintótica.

Para um exemplo simples, considere o seguinte modelo de regressão

Yt = βxt + ut 3.4

Onde ut~N(0, σ2), o tamanho da amostra, N = 50, σ2 = 1 e o parâmetro β = 4,0.

Para rodar esse experimento, abrimos o Console Gretl e digitamos a sequência de comados a seguir.

# Criação de um banco de dados vazio com tamanho 50

nulldata 50

# Geramos a série x com um operador condicional ternário (atenção para digitar os espaços corretamente). Um operador condicional ternário tem três partes. A primeira delas está à esquerda do ponto de interrogação, "?", a segunda está entre o ponto de interrogação e os dois pontos e a terceira parte está do lado direito dos dois pontos. Como se trata de uma condicional, se a primeira parte for verdadeira, ou seja, se os valores de "index" forem maiores do que 20, então assumirão valor igual a 20, caso contrário, para valores de "index" menores que 20, a série assumirá valores iguais a 10.

series x = (index>20) ? 20 : 10

# Como definimos os valores para o parâmetro beta, podemos gerar o modelo 3.4 da seguinte forma:

series ys = 4.0*x

# Usaremos agora o comando loop, para abrir um modo especial dentro do Gretl, que permitirá parametrizar comandos que serão executados repetidamente. Especificamente falando, repetiremos o experimento 1000 vezes e salvaremos todos esses parâmetros beta simulados em um arquivo chaado "coef.gdt".

loop 1000 --progressive --quiety = ys + normal(0,1)ols y xscalar betha = $coeff(x)scalar sig2 = $sigma^2print betha sig2store "@workdir\coef.gdt" betha sig2endloop

# Na sequência o Gretl irá abrir o arquivo "coef.gdt", mostrar as estatísticas desccritivas dos betas estimados e plotar um gráfico testando a distribuição normal para os betas estimados.

open "@workdir\coef.gdt"summaryfreq betha ––normal

Page 144: EconomEtria ii - UNIASSELVI

136

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

Ao fazer esse experimento, você constatará que em média, os valores estimados para o β convergem para 4,0, como havíamos estabelecido no começo da nossa simulação. Isso demonstra a consistência do estimador obtido pelo método de mínimos quadrados ordinários.

Esse exemplo básico foi usado para chamar a sua atenção para o fato de que existe uma estrutura a ser seguida dentro de uma simulação de Monte Carlo. Veja o quadro a seguir.

QUADRO 14 – ESTRUTURA BÁSICA DE UMA SIMULAÇÃO DE MONTE CARLO NO GRETL

FONTE: Adaptado de Adkins (2010, p. 9)

# Abra um banco de dados para usar como base da simulação ou# crie valores para os regressores usando uma sequência de números aleatórios# defina uma “semente” para obter o mesmo resultado cada vez que você rodar a simulação (opcional)# defina os valores dos parâmetros# algumas simulações dependem das condições iniciais, as quais devem ser inseridas neste momento# inicie o “loop”, indicando o número desejado de amostragens# use o comando “—progressive” para fazer a simulação de Monte Carlo e use o comando “—quiet” para interromper as iterações no loop, formando:loop NMC --progressive --quiet# gere a série de erros aleatórios# gere a média condicional da variável dependente# estime o modelo# compute e salve as estatísticas desejadas# use o comando “print” para imprir os resultados# armazene os resultados em um arquivo para análise futura# encerre com o comando “endloop”

Para outros exemplos de simulação de Monte Carlo, acesse: <http://learneconometrics.com/pdf/MCgretl/>. Neste site você poderá inclusive baixar arquivos do Gretl com scripts prontos para intervalo de confiança, modelos com defasagens distribuídas com autocorrelação, heteroscedasticidade, variáveis instrumentais, modelos de escolha binária e mínimos quadrados não lineares.

Outra técnica de simulação que vem sendo muito utilizada nos últimos anos é a técnica de bootstrapping. Conforme Greene (2012, p. 651, tradução livre), “[...] a técnica de bootstrapping é empregada para obter uma descrição das propriedades amostrais dos estimadores empíricos usando os próprios dados da amostra, ao invés de resultados teóricos”.

Page 145: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

137

Essa técnica foi introduzida por Efron (1979) e é um método baseado em computador utilizado para obter estimativas estatísticas mais precisas. A ideia é bastante simples e conforme Efron (1979, p. 3), pode ser sintetizada em três passos apresentados a seguir:

1. Construa a distribuição de probabilidade amostral F, distribuindo 1/n da amostra em cada ponto x1, x2, x3, ... xn.

2. Com F fixado, extraia uma amostra aleatória de tamanho n de F, como: Xi = xi,Xt~indF 3.53. Chamamos isso de amostra bootstrap, com X* = (X1,X2, ..., Xn), x* = (x1,x2, ..., xn).4. Aproximar a distribuição amostral de R(X,F) pela distribuição de bootstrap de

R* = R(X*,F) 3.6

A distribuição de R* induzida pelo processo aleatório 3.5, com F mantido fixo nos seus valores observados.

Como você já deve ter percebido, o problema do método de bootstrap é justamente calcular a sua distribuição de probabilidade. Efron (1979) sugere três métodos, sendo o primeiro deles o cálculo teórico direto, o segundo através de simulação de Monte Carlo e o terceiro usando o método de expansão de séries de Taylor.

Para um estudo avançado sobre as técnicas de bootstrapping, veja Efron e Tibishirani (1993), Davidson e Mckinnon (2003), Enders (2004) e Greene (2012). No Gretl, na janela de resultado do modelo econométrico estimado, é possível utilizar a técnica de bootstrapping através do menu “Análise” e depois “Bootstrap”. Na janela que será aberta é possível construir um intervalo de confiança para os coeficientes estimados usando essa técnica de reamostragem, o que torna o resultado mais preciso, além de obter o p-valor mais preciso através de amostragem repetida.

Vamos ver como funciona com uma aplicação prática. Considere os dados do quadro a seguir. Os dados já foram utilizados anteriormente na Unidade 1, Tópico 3. Naquela oportunidade estimamos a regressão e os resultados não cointegraram, motivo pelo qual tivemos que aplicar o filtro HP. Os dados do quadro a seguir são apresentados com os valores filtrados.

Para a variável dependente, usamos o consumo final das famílias, em R$ milhões. Para a variável explicativa, optamos por uma proxy da renda e neste caso escolhemos o PIB a preços de mercado, em R$ milhões. O modelo a ser estimado é:

Consumot = β1 + β2Rendat + ut 3.7

* *

* * * * * *

Page 146: EconomEtria ii - UNIASSELVI

138

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

QUADRO 15 – CONSUMO E RENDA, BRASIL, 1º TRIMESTRE 1996 ATÉ 3º TRIMESTRE 2017

Período Consumo Renda Período Consumo Renda Período Consumo Renda

1996T1 132.056 200.198 2003T2 257.628 418.187 2010T3 601.027 990.344

1996T2 135.278 205.479 2003T3 264.697 430.955 2010T4 618.927 1.018.502

1996T3 138.497 210.755 2003T4 272.012 444.116 2011T1 637.106 1.046.865

1996T4 141.705 216.016 2004T1 279.579 457.663 2011T2 655.525 1.075.359

1997T1 144.901 221.262 2004T2 287.407 471.600 2011T3 674.140 1.103.891

1997T2 148.090 226.507 2004T3 295.502 485.923 2011T4 692.901 1.132.374

1997T3 151.280 231.765 2004T4 303.867 500.634 2012T1 711.755 1.160.726

1997T4 154.482 237.050 2005T1 312.511 515.748 2012T2 730.652 1.188.885

1998T1 157.712 242.390 2005T2 321.451 531.295 2012T3 749.531 1.216.768

1998T2 160.991 247.820 2005T3 330.701 547.296 2012T4 768.322 1.244.287

1998T3 164.338 253.372 2005T4 340.275 563.772 2013T1 786.960 1.271.365

1998T4 167.772 259.080 2006T1 350.190 580.752 2013T2 805.391 1.297.941

1999T1 171.311 264.983 2006T2 360.468 598.272 2013T3 823.557 1.323.936

1999T2 174.970 271.115 2006T3 371.127 616.354 2013T4 841.400 1.349.285

1999T3 178.762 277.505 2006T4 382.183 635.009 2014T1 858.869 1.373.943

1999T4 182.694 284.177 2007T1 393.651 654.251 2014T2 875.931 1.397.905

2000T1 186.775 291.155 2007T2 405.547 674.103 2014T3 892.564 1.421.173

2000T2 191.018 298.469 2007T3 417.885 694.576 2014T4 908.752 1.443.765

2000T3 195.427 306.139 2007T4 430.671 715.680 2015T1 924.494 1.465.724

2000T4 200.010 314.182 2008T1 443.912 737.420 2015T2 939.822 1.487.135

2001T1 204.774 322.618 2008T2 457.611 759.811 2015T3 954.775 1.508.074

2001T2 209.733 331.469 2008T3 471.769 782.850 2015T4 969.391 1.528.615

2001T3 214.899 340.753 2008T4 486.382 806.540 2016T1 983.712 1.548.833

2001T4 220.286 350.479 2009T1 501.456 830.905 2016T2 997.800 1.568.814

2002T1 225.903 360.656 2009T2 516.993 855.971 2016T3 1.011.707 1.588.613

2002T2 231.762 371.287 2009T3 532.981 881.721 2016T4 1.025.476 1.608.279

2002T3 237.865 382.365 2009T4 549.399 908.103 2017T1 1.039.150 1.627.850

2002T4 244.212 393.882 2010T1 566.227 935.047 2017T2 1.052.781 1.647.379

2003T1 250.800 405.825 2010T2 583.447 962.491 2017T3 1.066.401 1.666.892

FONTE: <www.ipeadata.gov.br>. Acesso em: 11 abr. 2019.

Obs.: Dados extraídos pelo filtro HP.

Os resultados estão no quadro a seguir, em que vemos que os coeficientes estimados são estatisticamente significativos ao nível de 5% de significância estatística. O problema desse resultado é que, ao analisar a estatística de Durbin-Watson, percebemos que há problema de autocorrelação de primeira ordem. Devemos recordar que na presença de autocorrelação, os parâmetros são não viesados, mas ineficientes e com variâncias viesadas.

Page 147: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

139

QUADRO 16 – RESULTADO DA ESTIMAÇÃO DA FUNÇÃO CONSUMO

FONTE: o autor

Modelo 1: MQO, usando as observações 1996:1-2017:3 (T = 87)Variável dependente: hpt_Consumo

coeficiente erro padrão razão-t p-valor -------------------------------------------------------------- const −5196,09 2385,24 −2,178 0,0321 ** hpt_Renda 0,628297 0,00265608 236,6 1,33e-121 ***

Média var. dependente 475915,5 D.P. var. dependente 296702,3Soma resíd. quadrados 1,15e+10 E.P. da regressão 11622,95R-quadrado 0,998483 R-quadrado ajustado 0,998465F(1, 85) 55956,20 P-valor(F) 1,3e-121Log da verossimilhança −936,8201 Critério de Akaike 1877,640Critério de Schwarz 1882,572 Critério Hannan-Quinn 1879,626rô 0,996528 Durbin-Watson 0,007310

Como podemos ver, o sinal da constante não faz o menor sentido econômico, porque se não houver mudanças na renda, esse resultado indica que as famílias terão consumo negativo. Podemos utilizar o método de bootstrap para simular o p-valor para a constante e para isso você deve clicar no menu “Análise”, na janela de resultados do modelo e na sequência escolher “Bootstrap”. Preencha os campos conforme a figura a seguir.

FIGURA 5 – JANELA DE CONFIGURAÇÃO DE BOOTSTRAP

FONTE: O autor

Page 148: EconomEtria ii - UNIASSELVI

140

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

O Gretl reportará o resultado como:

Para o coeficiente em const (estimativa pontual -5196,09):

p-valor = 68 / 1000 = 0,068

Baseado em 1000 replicações, usando resíduos reamostrados

Esse resultado foi obtido após 1.000 reamostragens. Note que o p-valor através da técnica de bootstrap é 0,068 e não 0,0321 como vimos na estimação da regressão. Se antes poderíamos rejeitar a hipótese nula de que o coeficiente estimado é estatisticamente igual a zero ao nível de 5% de significância estatística, agora, o p-valor de bootstrap indica que não podemos rejeitar H0.

Apesar do resultado ser mais preciso, devemos lembrar que a técnica correta de estimação na presença de autocorrelação é por mínimos quadrados generalizados e não por mínimos quadrados ordinários. Neste caso específico, a estimação por Cochrane-Orcutt resolve o problema de autocorrelação, por outro lado, como estamos lidando com séries temporais, a questão da estacionariedade não deve ser desprezada, bem como a técnica de cointegração.

Page 149: EconomEtria ii - UNIASSELVI

TÓPICO 3 | PRECEDÊNCIA EM ECONOMIA

141

LEITURA COMPLEMENTAR

INTELIGÊNCIA ARTIFICIAL É CAMPEÃ MUNDIAL DE XADREZ; QUANDO SERÁ PRÊMIO NOBEL?

Roberto Leal Lobo e Silva Filho

O Fórum Econômico Mundial nos adverte que entramos no início de uma revolução que vai mudar fundamentalmente a forma como vivemos, trabalhamos e nos relacionamos uns com os outros. Na sua escala, escopo e complexidade, a quarta revolução industrial é muito diferente de tudo que a humanidade viveu antes.

Ainda precisamos nos acostumar com a velocidade e a amplitude dessa nova revolução.

Com o desenvolvimento de tecnologias, milhões de postos de trabalho tradicionais serão extintos, outros milhões que ainda não existem hoje serão criados, e exigirão novas habilidades que terão que ser desenvolvidas pelos sistemas educacionais. Um grande desafio para as nossas escolas e universidades: como preparar os cidadãos para serem relevantes e realizados na nova civilização que se aproxima aceleradamente.

Um exemplo dramático da rapidez das transformações dos sistemas digitais de Inteligência artificial (AI) é o que está acontecendo no jogo de xadrez por computadores.

Na década de 90, os computadores já se igualavam ao homem na sua capacidade de jogar xadrez. Em 1997, o computador DeepBlue venceu o campeão mundial Garry Kasparov.

Seguiu-se um período de colaboração com duplas formadas por humanos e computadores que se imaginava como uma combinação perfeita. Ledo engano. Os computadores se aperfeiçoaram rapidamente, dispensando a nossa colaboração nos jogos.

Em 2017, um marco novo: o computador AlphaZero bateu o computador campeão do ano anterior, Stockfish 8, num campeonato de 100 partidas – venceu 28 e empatou 72. Não sofreu nenhuma derrota! Mas isso ainda é pouco. Enquanto o Scockfish 8 se baseia num enorme esforço computacional e um poderoso banco de dados com aberturas, estratégias etc., a abordagem dos criadores do AlphaZero foi a de oferecer as regras do jogo e fazer o computador jogar milhões de jogos contra ele mesmo e, assim, aprender consigo próprio, utilizando técnicas de Inteligência Artificial como redes neurais e simulações de Monte Carlo. Enquanto o Scockfish 8 calculava 70 milhões de posições por segundo, o AlphaZero calculava “somente” 80 mil. Alpha Zero levou menos de 4 horas para começar do zero, aprender as regras do jogo e ganhar do que havia de mais avançado! Para aprender de forma autodidata, jogou 44 milhões de partidas, nessas 4 horas, e foi aprendendo a interpretar as jogadas com maior chance de sucesso. Uma fantástica evolução.

Seria possível agora multiplicar o programa do AlphaZero e criar milhares de computadores campeões mundiais!

Page 150: EconomEtria ii - UNIASSELVI

142

UNIDADE 2 | MODELOS ECONOMÉTRICOS DINÂMICOS E MODELOS DE EQUAÇÕES SIMULTÂNEAS

As novas tecnologias estão também penetrando na área da educação, tanto na gestão das instituições como no auxílio ao aprendizado que será mais flexível, descentralizado e individualizado, como previu Christensen Clayton, da Universidade de Harvard, anos atrás. Elas serão insubstituíveis, por exemplo, na educação continuada de professores e profissionais e na disponibilidade de montar estratégias individualizadas de sucesso para combater a evasão e melhorar desempenho acadêmico dos estudantes a partir das análises de Big Data e da riqueza da Inteligência Artificial, capaz de analisar estratégias, prever consequências, comparar resultados e modificar as propostas baseadas em milhões de informações. Será um universo novo de perspectivas e promessas de uma educação melhor e mais inclusiva.

Uma das ferramentas mais poderosas na educação dos próximos anos serão os laboratórios virtuais onde as novas tecnologias trarão um enorme desenvolvimento.

Um laboratório virtual é uma atividade baseada em computador onde os alunos interagem com um aparato experimental por meio de uma interface de computador. Há dois tipos basicamente: a simulação de um experimento programado anteriormente ou um experimento controlado remotamente, em que o aluno interage com aparelhos reais, mas distantes dele, por meio de um link de computador.

É difícil prever como eles serão no ano 2025. Provavelmente, espetaculares utilizando a realidade virtual, robôs e as impressoras 3-D, apoiados na flexibilidade das tecnologias digitais e computação em nuvem que permitirá concretizar propostas de sofisticadas experiências a distância.

A simulação virtual de um experimento se baseia nas teorias existentes e nas equações e parâmetros oferecidos no software. É possível calcular o tempo de queda livre de um corpo sem considerar, como no caso real, a resistência do ar, rotação da terra e outros efeitos que ocorrem nas situações reais. A simulação só devolve o que se introduz na sua programação.

Por isso é que as simulações não poderão substituir as experiências reais em laboratórios físicos, uma vez que elas se utilizam das teorias já existentes e jamais poderão observar um fenômeno que viole os paradigmas da ciência do momento. Portanto, elas demonstram leis conhecidas, mas não rompem paradigmas (mesmo que desenvolvam combinações ainda desconhecidas destas mesmas leis e possam apresentar comportamentos inesperados).

No segundo caso – o das experiências reais que utilizam combinações das tecnologias mais poderosas disponíveis –, e lembrando o sucesso do AlphaZero, será possível a proposição e análise dessas experiências conduzidas por um sistema de Inteligência Artificial, que poderá verificar contradições entre as teorias e os resultados medidos e propor novas experiências até, quem sabe, desenvolver a sua própria teoria. Em breve poderemos ter “A Teoria Quântica da Gravidade segundo o Computador Beta3” ou coisa parecida! Por que não? Vamos ter que dar o Prêmio Nobel a um computador?

Teremos dias fantásticos e um pouco assustadores à frente.

FONTE: <https://educacao.estadao.com.br/blogs/roberto-lobo/inteligencia-artificial-e-campea-mundial-de-xadrez-quando-sera-premio-nobel/>. Acesso em: 30 jan. 2019.

Page 151: EconomEtria ii - UNIASSELVI

143

RESUMO DO TÓPICO 3

Nesse tópico, você aprendeu que:

• Em econometria, a causalidade não é tratada no sentido estrito da palavra, mas sim com um sentido de precedência. O teste de Granger (1969) verifica se uma variável causa, no sentido de Granger, alterações em outra variável.

• A causalidade pode ser unidirecional, bilateral ou de feedback, ou ausência de causalidade, também chamada de independência.

• Para rodar o teste de causalidade de Granger, é possível seguir um procedimento em vários estágios, o que se torna menos complexo com o auxílio do Gratl quando digitamos as linhas de comando e executamos o programa, ou através da janela de resultados do VAR.

• O teste de Granger é sensível a defasagens e neste caso a saída mais empregada na literatura é o uso dos critérios de seleção de defasagens do VAR. Além disso, as séries têm que ser estacionárias para que o resultado seja válido.

• Uma das técnicas que mais vem se desenvolvendo nos últimos anos, com o avanço das rotinas computacionais, é a simulação. Neste caso o experimento de Monte Carlo é o método clássico, mas atualmente vem ganhando destaque as técnicas de reamostragem, como o de bootstrap.

Page 152: EconomEtria ii - UNIASSELVI

144

1 Retome os dados do Quadro 10 desse tópico para dar sequência no teste de causalidade de Granger. Naquela oportunidade, vimos que o teste de seleção de defasagens do VAR nos indicou que a defasagem ótima pelo critério de Akaike era de 7 períodos. Rode o teste de causalidade de Granger para 7 defasagens, utilizando o resultado da estimação pelo VAR, sem constante e discuta o resultado obtido.

2 Outra forma de rodar o teste de causalidade de Granger é através da digitação das linhas de comando no console Gretl ou na janela de scripts. Escreva o script para o teste de Granger com 7 defasagens.

3 Para essa atividade, você utilizará os dados do quadro a seguir.

QUADRO 17 – MORTALIDADE INFANTIL E PNB PER CAPITA

FONTE: Gujarati e Porter (2011, p. 187)

AUTOATIVIDADE

Obs MI PNCpc Obs MI PNCpc Obs MI PNCpc1 128 1870 23 126 560 45 37 17302 204 130 24 12 4240 46 103 7803 202 30 25 167 240 47 67 13004 197 570 26 135 430 48 143 9305 96 2050 27 107 3020 49 83 6906 209 200 28 72 1420 50 223 2007 170 670 29 128 420 51 240 4508 240 300 30 27 19830 52 312 2809 241 120 31 152 420 53 12 443010 55 290 32 224 530 54 52 27011 75 1180 33 142 8640 55 79 134012 129 900 34 104 350 56 61 67013 24 1730 35 287 230 57 168 41014 165 1150 36 41 1620 58 28 437015 94 1160 37 312 190 59 121 131016 96 1270 38 77 2090 60 115 147017 148 580 39 142 900 61 186 30018 98 660 40 262 230 62 47 363019 161 420 41 215 140 63 178 22020 118 1080 42 246 330 64 142 56021 269 290 43 191 101022 189 270 44 182 300

Page 153: EconomEtria ii - UNIASSELVI

145

OBS.: MI = mortalidade infantil: número anual de óbitos de crianças menores de 5 anos por 1.000 nascidos vivos dos Estados Unidos.PNBpc = PNB per capita em 1980 dos Estados Unidos.

Ao estimar a regressão MIi = α + βPNBpci + ui obtemos o seguinte resultado com os coeficientes estimados estatisticamente significativos ao nível de 1% de significância:

MIi = 157,402 – 0,0114PNCpci

Você deverá montar a seguinte simulação de Monte Carlo apresentando o script:

a) Gerar 10 conjuntos de 64 observações para o termo de erro, com distribuição normal, média zero e variância 70. Para isso, use o comando “series ui = normal(0,70)”, com i = 1, 2, ..., 10.

b) Simule uma variável dependente, ys = 157.402 – 0.0114 * PNCpc, atentando para o fato de que no Gretl, a vírgula separadora de casas decimais deve ser substituída por ponto.

c) Construa 10 variáveis y, sendo yi = ys + ui, para cada i = 1, 2, ..., 10.d) Rode 10 regressões por mínimos quadrados ordinários, usando a expressão

ols yi const PNCpc, onde i = 1, 2, ..., 10. Após cada regressão, você deve armazenar os coeficientes da constante e do PNCpc com os comandos: scalar ai = $coeff(const) para a constante, scalar bi = $coeff(PNCpc) para o coeficiente angular e scalar sigi = $sigma^2 para a variância, com i = 1, 2, ..., 10.

e) Liste todos os coeficientes estimados através do comando print ai bi sigi.f) Com o uso de uma calculadora ou de uma planilha eletrônica, calcule as médias

dos coeficientes estimados e da variância estimada e compare com os resultados obtidos a partir dos parâmetros utilizados para se construir a simulação.

4 Com base no Quadro 17 do exercício anterior, estime o modelo de regressão MIi = α + βPNBpci + ui por mínimos quadrados ordinários e simule um intervalo de confiança para o coeficiente β, através do método de bootstrap, simulando erros normais e com 10.000 repetições (reamostragem).

Page 154: EconomEtria ii - UNIASSELVI

146

Page 155: EconomEtria ii - UNIASSELVI

147

UNIDADE 3

MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA

QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

OBJETIVOS DE APRENDIZAGEM

PLANO DE ESTUDOS

A partir do estudo desta unidade, você será capaz de:

• compreender e utilizar modelos de regressão que combinam dados de corte com séries de tempo (modelos painel) para análise de políticas econômicas;

• construir modelos de resposta qualitativa, capazes de determinar a probabilidade de um indivíduo fazer uma determinada escolha quando outras opções lhe são apresentadas;

• conhecer outras técnicas de estimação e os últimos avanços da econometria, analisando a nova fronteira do conhecimento econométrico.

Esta unidade está dividida em três tópicos. No decorrer da unidade você encontrará auto atividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – MODELOS PAINEL

TÓPICO 2 – MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA

TÓPICO 3 – TÓPICOS ESPECIAIS EM ECONOMETRIA

Page 156: EconomEtria ii - UNIASSELVI

148

Page 157: EconomEtria ii - UNIASSELVI

149

TÓPICO 1

MODELOS PAINEL

UNIDADE 3

1 INTRODUÇÃO

Até agora nossos estudos se restringiram à análise de regressão usando uma única estrutura de dados. Em Econometria 1, essa estrutura é composta por dados de corte transversal e, na Econometria 2, começamos a estudar outra estrutura, o das séries de temporais.

No caso dos dados de corte, pegamos um dado momento no tempo e analisamos os indivíduos e suas interações naquele recorte temporal. Por exemplo, considere os gols marcados pelas equipes na temporada de 2018 do campeonato brasileiro de futebol. Você analisará apenas os gols marcados naquela temporada, e não na temporada de 2017 ou 2016, e muito menos em cada partida. O seu interesse é no total de gols marcados naquele ano. Você pode comparar a pontuação obtida com o número de gols sofridos naquela temporada e tentar estabelecer uma correlação entre ataque e a posição na tabela.

TABELA 1 – CLASSIFICAÇÃO DO CAMPEONATO BRASILEIRO, SÉRIE A,TEMPORADA DE 2018

FONTE: <https://www.cbf.com.br/futebol-brasileiro/competicoes/campeonato-brasileiro-serie-a>. Acesso em: 3 fev. 2019.

Obs.: J = jogos, V = vitórias, E = empates, D = derrotas, GP = gols pró, GC = gols contra, SG = saldo de gols, PTS = pontos ganhos.

Posição Equipe J V E D GP GC SG PTS1 Palmeiras 38 23 11 4 64 26 38 802 Flamengo 38 21 9 8 59 29 30 723 Internacional 38 19 12 7 51 29 22 694 Grêmio 38 18 12 8 48 27 21 665 São Paulo 38 16 15 7 46 34 12 636 Atlético-MG 38 17 8 13 56 43 13 597 Athletico Paranaense 38 16 9 13 54 37 17 578 Cruzeiro 38 14 11 13 34 34 0 539 Botafogo 38 13 12 13 38 46 -8 5110 Santos 38 13 11 14 46 40 6 5011 Bahia 38 12 12 14 39 41 -2 4812 Fluminense 38 12 9 17 32 46 -14 4513 Corinthians 38 11 11 16 34 35 -1 4414 Chapecoense 38 11 11 16 34 50 -16 4415 Ceará 38 10 14 14 32 38 -6 4416 Vasco da Gama 38 10 13 15 41 48 -7 4317 Sport 38 11 9 18 35 57 -22 4218 América-MG 38 10 10 18 30 47 -17 4019 Vitória 38 9 10 19 36 63 -27 3720 Paraná 38 4 11 23 18 57 -39 23

Page 158: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

150

A Tabela 1 traz um exemplo de dados de corte, trata-se da classificação das equipes de futebol no campeonato brasileiro de 2018. Note que não comparamos essa classificação com as outras temporadas, analisamos apenas os indivíduos, equipes, no recorte temporal de 2018.

As séries temporais são a outra estrutura de dados que nos habituamos a analisar. Neste caso, acompanhamos os indivíduos ou categorias ao longo do tempo, como no caso da Tabela 2, na qual acompanhamos a pontuação e demais estatística do campeão brasileiro de futebol das temporadas 2012 até 2018. A análise é por equipe campeã e não por uma equipe específica, mas poderíamos selecionar uma das equipes e analisar o seu desempenho ao longo de vários anos também.

TABELA 2 – CAMPEÕES DO CAMPEONATO BRASILEIRO, SÉRIE A,TEMPORADAS 2012 A 2018

Ano Equipe campeã J V E D GP GC SG PTS2018 Palmeiras - SP 38 23 11 4 64 26 38 802017 Corinthians - SP 38 21 9 8 50 30 20 722016 Palmeiras - SP 38 24 8 6 62 32 30 802015 Corinthians - SP 38 24 9 5 71 31 40 812014 Cruzeiro - MG 38 24 8 6 67 38 29 802013 Cruzeiro - MG 38 23 7 8 77 37 40 762012 Fluminense - RJ 38 22 11 5 61 33 28 77

FONTE: <https://www.cbf.com.br/futebol-brasileiro/competicoes/campeonato-brasileiro-serie-a>. Acesso em: 3 fev. 2019.

Obs. J = jogos, V = vitórias, E = empates, D = derrotas, GP = gols pró, GC = gols contra, SG= saldo de gols, PTS = pontos ganhos.

Se você fosse convidado pela CBF (Confederação Brasileira de Futebol) para fazer uma análise do desempenho das equipes e tentar descobrir qual a pontuação mínima para que um time seja campeão, precisaria de mais do que apenas sete anos para análise. Neste caso, apenas com as informações da Tabela 2 você não conseguiria dar essa resposta àquela entidade.

Por outro lado, se uma equipe estiver preocupada com a classificação entre os quatro primeiros colocados e estabelecer esse objetivo em função da conquista de patrocinadores, você poderia coletar informações sobre os quatro primeiros colocados do brasileirão ao longo desses sete anos, totalizando 28 observações como na Tabela 3.

Com base nessas informações seria possível estimar a pontuação mínima necessária para se chegar ao final do campeonato entre os quatro primeiros colocados e assim entrar diretamente na fase de grupos da Copa Libertadores da América e ainda conseguir mais patrocinadores.

Page 159: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

151

A Tabela 3 é um exemplo de dados em painel porque ele agrega tanto os dados de corte da Tabela 1, quanto os dados de séries temporais da Tabela 2. A partir de agora, trabalharemos com modelos cujos dados serão agrupados como na Tabela 3, com as dimensões de corte transversal e série temporal ao mesmo tempo.

Para isso analisaremos primeiro o grupamento independente de dados de corte ao longo do tempo, dados empilhados como o caso da Tabela 3, depois abordaremos as técnicas de estimação para os dados em painel, começando com os modelos de efeitos fixos e os de efeitos aleatórios.

A aplicação dos modelos painel é muito extensa, vai desde a avaliação de políticas governamentais, análise da efetividade de políticas públicas, auxilia na tomada de decisão de empresas, entre outras aplicações.

TABELA 3 – PRIMEIROS COLOCADOS DO CAMPEONATO BRASILEIRO, SÉRIE A,TEMPORADAS 2012 A 2018

Temporada Posição Equipe PTS J V E D GP GC SG2018 1º Palmeiras – SP 80 38 23 11 4 64 26 382018 2º Flamengo – RJ 72 38 21 9 8 59 29 302018 3º Internacional – RS 69 38 19 12 7 51 29 222018 4º Grêmio – RS 66 38 18 12 8 48 27 212017 1º Corinthians – SP 72 38 21 9 8 50 30 202017 2º Palmeiras – SP 63 38 19 6 13 61 45 162017 3º Santos – SP 63 38 17 12 9 42 32 102017 4º Grêmio – RS 62 38 18 8 12 55 36 192016 1º Palmeiras – SP 80 38 24 8 6 62 32 302016 2º Santos – SP 71 38 22 5 11 59 35 242016 3º Flamengo – RJ 71 38 20 11 7 52 35 172016 4º Atlético – MG 62 38 17 11 10 61 53 82015 1º Corinthians – SP 81 38 24 9 5 71 31 402015 2º Atlético – MG 69 38 21 6 11 65 47 182015 3º Grêmio – RS 68 38 20 8 10 52 32 202015 4º São Paulo – SP 62 38 18 8 12 53 47 62014 1º Cruzeiro – MG 80 38 24 8 6 67 38 292014 2º São Paulo – SP 70 38 20 10 8 59 40 192014 3º Internacional – RS 69 38 21 6 11 53 41 122014 4º Corinthians – SP 69 38 19 12 7 49 31 182013 1º Cruzeiro – MG 76 38 23 7 8 77 37 402013 2º Grêmio – RS 65 38 18 11 9 42 35 7

2013 3º Atlético Paranaense – PR 64 38 18 10 10 65 49 16

2013 4º Botafogo – RJ 61 38 17 10 11 55 41 142012 1º Fluminense – RJ 77 38 22 11 5 61 33 282012 2º Atlético – MG 72 38 20 12 6 64 37 272012 3º Grêmio – RS 71 38 20 11 7 56 33 232012 4º São Paulo – SP 66 38 20 6 12 59 37 22

FONTE: <https://www.cbf.com.br/futebol-brasileiro/competicoes/campeonato-brasileiro-serie-a>. Acesso em: 3 fev. 2019.

Obs.: J = jogos, V = vitórias, E = empates, D = derrotas, GP = gols pró, GC = gols contra, SG = saldo de gols, PTS = pontos ganhos.

Page 160: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

152

2 MODELOS COM DADOS EMPILHADOS

Empilhar tem um sentido de desprezar as unidades individuais e colocar os dados uns sobre os outros, com o objetivo de montar uma grande base, como na Tabela 3. Naquela tabela estávamos interessados em analisar as estatísticas dos quatro primeiros colocados do campeonato brasileiro de futebol, desde 2012 até 2018, não nos preocupando em acompanhar as equipes de forma individual, mas sim os primeiros quatro colocados, sejam eles quais forem.

Neste caso dizemos que se trata de um agrupamento independente de cortes transversais ao longo do tempo, porque não acompanhamos o indivíduo ao longo do tempo. Observe que os quatro primeiros colocados nem sempre são os mesmos. Desde 2012 tivemos 12 clubes se revezando nessas posições da tabela de classificação.

Se extrapolarmos essa ideia, analisando outros exemplos, podemos obter uma amostra aleatória de eleitores da eleição presidencial de 2014, questionando os entrevistados sobre as razões pelas quais eles optaram por votar em um candidato de direita ou de esquerda. Repetimos essa mesma entrevista em 2018, só que não com os mesmos eleitores, mas sim com outros de forma totalmente aleatória e independente. Esse é o sentido do agrupamento independente de indivíduos ao longo do tempo, porque não há conexão entre os entrevistados nas duas pesquisas.

Podemos fazer o mesmo com famílias, questionando sobre os seus gastos ou podemos analisar um grupo de indivíduos que tomou vacina contra a gripe em um ano e verificar quantos ficaram doentes, comparando os resultados com outros indivíduos distintos em outros períodos, a fim de verificar a eficácia da vacina da gripe em pessoas diferentes.

A ideia básica de agrupar os dados em painel é tornar a base de dados maior, aumentando os graus de liberdade e obtendo assim estimadores mais precisos para os parâmetros do modelo econométrico. Para entender como funcionam esses modelos, considere o modelo com a seguinte forma:

yit = X'itβ + Z'iα + uit 1.1

Que pode ser reescrito como:

yit = X'itβ + Ci + uit 1.2

Em 1.1 e 1.2, Xit é uma matriz com k regressores, não incluindo a constante que está inserida em Z'iα, que por sua vez captura a heterogeneidade dos indivíduos, ou seja, os efeitos individuais. Como características heterogêneas, podemos citar a região geográfica, o porte da empresa, a cor dos olhos, a nacionalidade, religião, entre outras características que distinguem um indivíduo dos demais e que são constantes no tempo.

Page 161: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

153

Conforme Greene (2012, p. 386), se as características individuais, Z, forem identificáveis, podemos estimar os modelos 1.1 e 1.2 por mínimos quadrados ordinários. Dito de outra forma, se Z for observável e contiver apenas o termo constante, os estimadores de α e do vetor β, obtidos por mínimos quadrados ordinários serão consistentes e eficientes.

Como exemplo, considere novamente os dados da Tabela 3 e suponha que estamos interessados em verificar qual o peso de uma vitória sobre a pontuação para ranquear as equipes entre as quatro melhores classificadas no campeonato brasileiro, bem como saber se uma boa defesa é importante para a pontuação.

Para isso, estimamos o seguinte modelo de regressão:

PTS V GC uit it it it� � � �� � �1 2 1.3

Onde PTSit são os pontos obtidos pela equipe i no ano t, Vit é o número de vitórias da equipe i no ano t, e GCit são os gols sofridos pela equipe i no ano t. O termo de erro, uit, deve ter as mesmas características encontradas no modelo clássico de regressão linear, ou seja, média zero, variância constante, ausência de autocorrelação. Além disso, Vit e GCit devem ser exógenas.

Sugiro que você digite os dados da Tabela 3 em uma planilha eletrônica, como o Excel e depois importe os dados para o Gretl, atentando para a estrutura dos dados. Ao fazer a importação, o Gretl fará o seguinte questionamento: Os dados importados foram interpretados como não sendo datados (dados de corte). Pretende que sejam interpretados como sendo série temporal ou dados de painel?

Você deve selecionar a opção “Sim” e, na tela seguinte, da estrutura do conjunto de dados, escolha “Painel” e “Avançar”. Na última janela você será questionado sobre a organização dos dados no painel. No nosso exemplo, usamos “Séries temporais empilhadas”.

O resultado da estimação do modelo 1.3 por MQO está no quadro a seguir.

Page 162: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

154

QUADRO 1 – RESULTADO DA ESTIMAÇÃO DO MODELO 1.3 POR MQO

FONTE: O autor

Obs.: ***, ** e * indicam significância estatística ao nível de 1%, 5% e 10% respectivamente.

Modelo 1: MQO agrupado, usando 28 observaçõesIncluídas 4 unidades de corte transversalComprimento da série temporal = 7Variável dependente: PTS

coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- const 26,6027 4,52254 5,882 3,88e-06 *** V 2,43953 0,170812 14,28 1,58e-013 *** GC −0,166771 0,0538019 −3,100 0,0047 ***

Média var. dependente 69,67857 D.P. var. dependente 6,055628Soma resíd. quadrados 81,75014 E.P. da regressão 1,808316R-quadrado 0,917433 R-quadrado ajustado 0,910828F(2, 25) 138,8923 P-valor(F) 2,88e-14Log da verossimilhança −54,73076 Critério de Akaike 115,4615Critério de Schwarz 119,4581 Critério Hannan-Quinn 116,6833rô −0,081231 Durbin-Watson 1,901769

Todos os coeficientes estimados são estatisticamente significativos e os sinais estão adequados ao que se esperava, ou seja, uma vitória positivamente relacionada aos pontos e gols sofridos negativamente relacionados. Se aplicarmos o teste de heteroscedasticidade de White, que não rejeitaremos a hipótese nula de ausência de heteroscedasticidade e, pela estatística de Durbin-Watson, podemos descartar a presença de autocorrelação de primeira ordem.

Vemos através desse resultado que a vitória tem peso decisivo na classificação entre os primeiros quatro colocados na tabela do campeonato brasileiro de futebol e, por outro lado, cada gol sofrido reduz a pontuação em 0,17, o que representa 5,67% dos pontos obtidos em uma vitória e 17% do ponto obtido no caso de empate.

Uma dúvida que fica em uma estimação como essa é se a regressão por mínimos quadrados é adequada. Podemos fazer o teste a partir da janela de resultados selecionando o menu “Testes” e depois “Diagnósticos de painel”. O resultado que nos interessa está no quadro a seguir.

Page 163: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

155

QUADRO 2 – RESULTADO DO DIAGNÓSTICO DE PAINEL PARA MQO

FONTE: O autor

Obs.: ***, ** e * indicam significância estatística ao nível de 1%, 5% e 10% respectivamente.

Diagnósticos: utilizando 4 unidades de corte transversal

Estimador de efeitos fixos permite diferenciar os interceptos por unidade de corte transversal

coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- const 28,9901 5,49332 5,277 2,70e-05 *** V 2,36993 0,195700 12,11 3,34e-011 *** GC −0,193874 0,0641768 −3,021 0,0063 ***

Variância residual: 75,6143/(28 - 6) = 3,43702

Significância conjunta da diferenciação das médias de grupo: F(3, 22) = 0,595071 com p-valor 0,624884

(Um p-valor baixo contraria a hipótese nula de que o modelo MQO agrupado (pooled) é adequado, validando a hipótese alternativa da existência de efeitos fixos.)

A primeira parte do diagnóstico de painel verifica a hipótese nula de que o modelo por MQO agrupado é adequado. Se rejeitarmos a H0, estaremos aceitando a existência de efeitos fixos, assunto que discutiremos mais adiante. Como podemos verificar, com um p-valor de 0,624884, não podemos rejeitar a hipótese nula e portanto, a estimação dos parâmetros do modelo 1.3 por MQO é válida.

Wooldridge (2016) traz uma aplicação bem interessante para o uso de dados agrupados. Trata-se de um experimento natural que é aquele que ocorre quando um evento qualquer altera o ambiente onde os agentes econômicos atuam. Para aplicar esse experimento, precisamos definir um grupo de controle, que não será afetado pelo evento exógeno e um grupo de tratamento, que é afetado pela mudança.

Precisamos de informações relativas a dois períodos de tempo, um deles antes do evento ocorrer e outro após a ocorrência do evento. Os grupos serão chamados de “𝐴”, para o grupo de controle e “𝐵” para o grupo de tratamento. A equação 1.4 resume esse experimento:

0 0 1 12 2it itY d dB d dB uβ δ β δ= + + + + 1.4

Page 164: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

156

Onde dB = 1 para os dados do grupo de tratamento e zero para os dados do grupo de controle. d2 é uma variável dummy para o segundo período de tempo (após o evento exógeno acontecer). A variável dependente é Y e o efeito causado pelo evento é medido por δ1, conhecido como estimador de diferença em diferenças. δ0 verifica se os grupos são diferentes, independentemente do evento ocorrer. β1 é utilizado para verificar se a variável dependente muda no tempo, independentemente do evento exógeno ocorrer ou não.

A tabela a seguir ilustra os efeitos causados pelo evento sobre a variável dependente. Note que antes do evento ocorrer, o grupo de controle sofre um efeito equivalente a β0. Por outro lado, o grupo de tratamento é acrescido de β1. Após o evento ocorrer, o grupo de controle é afetado por β0 + δ0, enquanto o grupo de tratamento é afetado por β0 + δ0 + β1 + δ1. A última linha mostra que a diferença em diferenças entre os dois grupos é de δ1.

TABELA 4 – EFEITOS DE UM EVENTO EXÓGENO SOBRE A VARIÁVEL DEPENDENTE

FONTE: Adaptado de Wooldridge (2016)

Antes Após Após – AntesControle β0 β0 + δ0 δ0

Tratamento β0 + β1 β0 + δ0 + β1 + δ1 δ0 + δ1

Tratamento – Controle β1 β1 + δ1 δ1

Como exemplo prático, você precisará dos dados do livro do Wooldridge (2016). Caso ainda não tenha baixado, poderá fazê-lo através do site: <http://ricardo.ecn.wfu.edu/pub/gretl/wooldridge_data.exe>. Após baixar, você deve executar o programa que irá extrair os dados do livro do Woldridge e disponibilizá-los dentro do Gretl. Quando concluir a instalação, abra o Gretl e selecione o menu “Arquivo”, na sequência, escolha “Abrir dados”, e, depois, escolha “Arquivo de exemplos”. Selecione a aba “Woldridge” e procure pelo arquivo “INJURY”.

Esses dados são do artigo de Meyer, Viscusi e Durbin (1995), que estudaram o tempo em que um trabalhador acidentado recebe indenização trabalhista. Antes de tudo, você deve restringir a base de dados para mostrar apenas os dados do estado de Kentucky, porque em 1980 esse estado alterou as regras de concessão do benefício.

Para restringir os dados ao estado de Kentucky, você deve selecionar o menu “Amostra”, depois escolher a opção “Restringir, baseado em critérios...”, e, na tela seguinte, preencher conforme a Figura 1. Dessa forma, a amostra passa de 7.150 para 5.626 observações semanais, deixando de fora os dados do estado de Michigan.

O benefício é pago para trabalhadores dentro de certa faixa de renda. A alteração na lei aumentou essa faixa de renda beneficiada, porém, isso não deve afetar os trabalhadores de baixa renda, porque já se enquadram no programa. Por outro lado, os trabalhadores de renda maior têm um incentivo a permanecer afastados do trabalho, recebendo indenização trabalhista. O que faremos aqui é testar essa afirmação e verificar se de fato isso ocorreu.

Page 165: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

157

Por se tratar de um experimento natural, teremos um grupo de controle, representado pelos trabalhadores de baixa renda, porque eles não são afetados pela mudança no pagamento dos benefícios, e os trabalhadores de alta renda serão o grupo de tratamento porque são diretamente afetados.

FIGURA 1 – RESTRINGINDO AMOSTRA NO GRETL

FONTE: O autor

O modelo a ser estimado por mínimos quadrados ordinários é:

ldurat = β0 + δ0afchnge + β1highearn + δ1afh * igh + u 1.5

Onde ldurat é o logaritmo da extensão do tempo em semanas que um trabalhador acidentado recebe remuneração por conta de indenização trabalhista; afchnge é uma variável dummy representando a mudança na política de pagamentos, assumindo valor igual a 1 após o aumento do tempo de indenização; highearn é uma variável dummy indicando que se trata de um trabalhador de alta renda, é, portanto, uma variável de tratamento; e afhigh é usada para estimar o efeito médio de tratamento.

O resultado da estimação está no Quadro 3. Verificamos que os coeficientes estimados são todos positivos, mas a variável afchnge não é estatisticamente significativa. As demais variáveis são diferentes de zero ao nível de 1% de significância.

O coeficiente estimado de interesse é δ1 = 0,1906, ou seja, a mudança na regra de concessão do benefício aumenta o tempo médio em que os trabalhadores de alta renda permanecem sem trabalhar em cerca de 19,06%.

Outro coeficiente que nos interessa analisar é δ0 = 0,0077. Esse coeficiente mostra se há diferença entre o grupo de controle e de tratamento após a ocorrência do evento que estamos estudando. Neste caso, como este coeficiente não é estatisticamente significativo, podemos dizer que a alteração na regra de concessão do benefício não afeta os trabalhadores de baixa renda, como era a hipótese que estávamos trabalhando.

Page 166: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

158

QUADRO 3 – RESULTADO DA ESTIMAÇÃO DE 1.5 POR MQO

FONTE: O autor

Obs.: ***, ** e * indicam significância estatística aos níveis de 1%, 5% e 10% respectivamente.

Modelo 1: MQO, usando as observações 1-5626

Variável dependente: ldurat

coeficiente erro padrão razão-t p-valor

----------------------------------------------------------

const 1,1256 0,0307368 36,62 0,0000 ***

afchnge 0,0077 0,0447173 0,1712 0,8640

highearn 0,2565 0,0474464 5,406 0,0000 ***

afhigh 0,1906 0,0685089 2,782 0,0054 ***

Média var. dependente 1,277745 D.P. var. dependente 1,282151

Soma resíd. quadrados 9055,934 E.P. da regressão 1,269174

R-quadrado 0,020663 R-quadrado ajustado 0,020140

F(3, 5622) 39,53958 P-valor(F) 2,81e-25

Log da verossimilhança −9321,997 Critério de Akaike 18651,99

Critério de Schwarz 18678,53 Critério Hannan-Quinn 18661,24

Log da verossimilhança para durat = −16510,6

Excluindo a constante, a variável com maior p-valor foi 2 (afchnge)

3 MODELOS DE EFEITOS FIXOS

Vamos voltar nossa atenção novamente para a equação 1.1. Nela temos o vetor Z', que captura as características individuais ou a heterogeneidade dos indivíduos, características essas que não variam ao longo do tempo. Conforme Greene (2012, p. 386), se Zi é não observável, mas correlacionado com a matriz de variáveis explicativas e, se estimarmos o modelo por mínimos quadrados ordinários, obteremos estimadores β viesados e inconsistentes.

No caso do modelo 1.2, ci = Z'iα incorpora todos os efeitos observáveis e é chamado de efeitos fixos, no sentido de que não é correlacionado com Xit. A ideia aqui é controlar esses efeitos, permitindo que o intercepto varie entre indivíduos, mas seja invariante no tempo.

Para entender como isso funciona, considere o seguinte modelo painel, que por simplificação se refere a dois períodos apenas:

Page 167: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

159

0 0 12it t it i ity d X c uβ δ β= + + + + 1.6

Onde Yit é a variável dependente; d2 é a variável dummy igual a 0 quando t = 1 e 1 quando t = 2; ci capta todos os fatores não observados, constantes no tempo, que afetam Y e que não mudam no tempo; e uit é o termo de erro idiossincrático porque ele representa fatores não observados que mudam ao longo do tempo e afetam Y. Para um exemplo prático, considere os dados da tabela a seguir.

TABELA 5 – TAXA DE CRIMINALIDADE EM 1982 E 1987

Obs Txcrim d87 desemp ano Obs txcrim d87 desemp Ano1 74,6576 0 8,2 82 47 129,4239 0 20,3 822 70,1173 1 3,7 87 48 126,8054 1 8,4 873 92,9349 0 8,1 82 49 98,9079 0 6,5 824 89,9722 1 5,4 87 50 126,2094 1 5 875 83,6111 0 9 82 51 89,3637 0 6,8 826 77,1948 1 5,9 87 52 80,4368 1 5 877 88,9425 0 12,6 82 53 100,8048 0 10,4 828 84,041 1 5,7 87 54 118,7649 1 6 879 108,1728 0 12,6 82 55 108,1653 0 15,4 8210 103,5638 1 7,4 87 56 126,2084 1 4,4 8711 136,8923 0 13,9 82 57 79,3136 0 16,9 8212 112,0923 1 5,7 87 58 76,8999 1 7,7 8713 71,3133 0 9,3 82 59 73,3134 0 14,9 8214 84,7643 1 5,4 87 60 63,699 1 7,7 8715 96,8506 0 8,4 82 61 110,0845 0 10,1 8216 75,5274 1 5,1 87 62 97,971 1 5,1 8717 78,4676 0 8,8 82 63 87,7245 0 13,2 8218 50,0192 1 5 87 64 73,1919 1 5,9 8719 92,276 0 9,3 82 65 95,6975 0 15,7 8220 84,1431 1 3,7 87 66 82,8355 1 7,3 8721 70,7767 0 6,9 82 67 87,4361 0 10 8222 72,519 1 6,2 87 68 91,4776 1 4,8 8723 113,9252 0 7 82 69 126,3283 0 17 8224 90,6406 1 6,2 87 70 108,3281 1 4,9 8725 169,3155 0 9,1 82 71 89,8509 0 4,7 8226 164,4824 1 2,4 87 72 126,9959 1 6,4 8727 75,8719 0 5,9 82 73 130,0596 0 10,7 8228 84,7473 1 5,5 87 74 165,7997 1 4,9 8729 103,162 0 7 82 75 70,249 0 10,2 8230 105,9149 1 4,6 87 76 79,2669 1 7,7 8731 144,7336 0 12,3 82 77 96,0872 0 11,3 8232 152,6686 1 5,8 87 78 120,0292 1 3,9 8733 116,3118 0 5,3 82 79 84,7551 0 10,4 8234 169,4747 1 4,6 87 80 96,7441 1 10,2 8735 76,943 0 7,6 82 81 119,3706 0 6,2 8236 107,4841 1 5,5 87 82 162,8323 1 6,9 8737 131,7104 0 8,5 82 83 114,2051 0 8,3 8238 172,6394 1 5,5 87 84 179,4173 1 6,9 8739 129,1399 0 8,9 82 85 108,9385 0 8,7 8240 155,5775 1 5 87 86 130,5876 1 5,9 8741 75,0794 0 10,4 82 87 77,2256 0 7 8242 63,4185 1 6,1 87 88 74,0985 1 6,3 8743 75,6781 0 10,9 82 89 54,0636 0 5,5 8244 67,8426 1 6,6 87 90 54,9833 1 6,3 8745 85,413 0 9,2 82 91 71,0614 0 13,1 8246 92,8074 1 10,4 87 92 82,9071 1 5,9 87

FONTE: Wooldridge (2016, s.p.)

Page 168: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

160

O modelo a ser estimado será:

txcrimit = β0 + δ0d87 + β1desempit + ci + uit 1.7

Em 1.7 estamos interessados em investigar a taxa de criminalidade em uma cidade americana nos anos de 1982 e 1987. Trata-se de um exemplo adaptado de Wooldridge (2016), onde txcrimit é a quantidade de crimes por 1.000 habitantes, d87 representa uma variável dummy para 1987, desempit é a taxa de desemprego e ci representa fatores fixos nas cidades, que de alguma forma afetam a criminalidade, como por exemplo a região geográfica.

O problema com 1.7 é que ci não pode ser correlacionado com desempit, pois, se for correlacionado, não poderemos empregar o método de mínimos quadrados ordinários. Podemos supor que essas duas variáveis não são correlacionadas e assim reescrevemos 1.7 como:

0 0 187it it ittxcrim d desemp vβ δ β= + + + 1.8

Com νit = ci + uit. chamamos νit de erro composto porque é composto pelos fatores fixos somados ao termo de erro idiossincrático, uit. O problema da estimação de 1.8 é que se a suposição de que cit e desempit não são correlacionados não se confirmar, o estimador de MQO para β1 será viesado e inconsistente, devido à omissão da variável ci no modelo.

QUADRO 4 – RESULTADO DA ESTIMAÇÃO DE 1.8 POR MQO

FONTE: o autor

Obs.: ***, ** e * indicam significância estatística aos níveisde 1%, 5% e 10% respectivamente.

Modelo 1: MQO, usando as observações 1-92Variável dependente: txcrim

coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- const 93,4203 12,7395 7,333 9,92e-011 *** d87 7,94041 7,97532 0,9956 0,3221 desemp 0,426546 1,18828 0,3590 0,7205

Média var. dependente 100,7908 D.P. var. dependente 29,84309Soma resíd. quadrados 80055,78 E.P. da regressão 29,99172R-quadrado 0,012212 R-quadrado ajustado -0,009986F(2, 89) 0,550147 P-valor(F) 0,578814Log da verossimilhança −441,9021 Critério de Akaike 889,8042Critério de Schwarz 897,3696 Critério Hannan-Quinn 892,8577

Teste de White para a heteroscedasticidade - Hipótese nula: sem heteroscedasticidade Estatística de teste: LM = 8,1778 com p-valor = P(Qui-quadrado(4) > 8,1778) = 0,0852781

Page 169: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

161

O resultado da estimação de 1.8 por MQO está no Quadro 4. Note que os estimadores não são estatisticamente significativos, provavelmente por erro de especificação, afinal estamos supondo que ci não é correlacionado com desempit, quando na verdade deve ser correlacionado. Podemos verificar essa afirmação através do teste de heteroscedasticidade de White, reportado na parte de baixo do Quadro 4.

A saída é diferenciar a série, ou seja, subtrair os dados do ano de 1987 dos dados de 1982 e dessa forma estimamos:

(txcrimi,1987 – txcrimi,1982) = (β0 + δ0) – β0 + β1 (desempi,1987 – desempi,1982) + (ui,1987 – ui,1987) 1.9

Δtxcrimi = δ0 + β1Δdesempi + Δui 1.10

A equação 1.10 é uma equação em primeiras diferenças, onde Δ representa a mudança de 1982 para 1987. No entanto, só poderemos proceder dessa forma se os indivíduos i de 1982 forem os mesmos indivíduos i de 1987. Essa técnica, portanto, não se aplica a agrupamentos independentes de dados de corte ao longo do tempo. No nosso caso isso é fácil de se obter, porque os dados não são empilhados e se tratam de cidades, portanto, basta pegar cada cidade e fazer a dedução de um ano em relação ao outro, como podemos ver na tabela a seguir.

TABELA 6 – PRIMEIRA DIFERENÇA DAS TAXAS DE CRIMINALIDADE

FONTE: Adaptado de Woldridge (2016)

Obs Δtxcrim Δdesemp Obs Δtxcrim Δdesemp Obs txcrim Δdesemp1 -4,5403 -4,5 17 53,163 -1 33 -12,862 -8,42 -2,9627 -2,7 18 30,541 -2 34 4,0415 -5,23 -6,4163 -3,1 19 40,929 -3 35 -18,0002 -12,14 -4,9015 -6,9 20 26,438 -4 36 37,145 1,75 -4,609 -5,2 21 -11,66 -4 37 35,7401 -5,86 -24,8 -8,2 22 -7,836 -4 38 9,0179 -2,57 13,451 -3,9 23 7,3944 1,2 39 23,942 -7,48 -21,3232 -3,3 24 -2,619 -12 40 11,989 -0,29 -28,4484 -3,8 25 27,302 -2 41 43,4617 0,710 -8,1329 -5,6 26 -8,927 -2 42 65,2122 -1,411 1,7423 -0,7 27 17,96 -4 43 21,6491 -2,812 -23,2846 -0,8 28 18,043 -11 44 -3,1271 -0,713 -4,8331 -6,7 29 -2,414 -9 45 0,9197 0,814 8,8754 -0,4 30 -9,614 -7 46 11,8457 -7,215 2,7529 -2,4 31 -12,11 -516 7,935 -6,5 32 -14,53 -7

Page 170: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

162

Estimamos a equação 1.10 por MQO, com base nos dados da Tabela 6 e os resultados estão no Quadro 5. Note que agora o coeficiente β1 é estatisticamente significativo e o problema de heteroscedasticidade foi superado.

QUADRO 5 – RESULTADO DA ESTIMAÇÃO DE 1.10 POR MQO

Modelo 1: MQO, usando as observações 1-46

Variável dependente: Δtxcrim

coeficiente erro padrão razão-t p-valor

--------------------------------------------------------

const 15,4022 4,70212 3,276 0,0021 ***

Δdesemp 2,21800 0,877866 2,527 0,0152 **

Média var. dependente 6,163759 D.P. var. dependente 21,21634

Soma resíd. quadrados 17689,55 E.P. da regressão 20,05082

R-quadrado 0,126700 R-quadrado ajustado 0,106852

F(1, 44) 6,383602 P-valor(F) 0,015189

Log da verossimilhança −202,1692 Critério de Akaike 408,3384

Critério de Schwarz 411,9957 Critério Hannan-Quinn 409,7084

Teste de White para a heteroscedasticidade -

Hipótese nula: sem heteroscedasticidade

Estatística de teste: LM = 2,23807

com p-valor = P(Qui-quadrado(2) > 2,23807) = 0,326595

FONTE: O autor

Obs. ***, ** e * indicam significância estatística aos níveisde 1%, 5% e 10% respectivamente.

Outra forma de modelar os efeitos fixos é através do método de mínimos quadrados com variáveis dummy, o que permite que cada indivíduo tenha seu próprio intercepto. O problema de se incluir uma dummy para cada indivíduo é que se tivermos muitos dados de corte, perderemos muitos graus de liberdade, pois, precisaremos estimar muitos parâmetros.

A equação 1.11 mostra como funciona esse modelo com variáveis dummy. Note que o intercepto ganhou um subscrito i, representando cada cidade, empresa, clube de futebol ou indivíduo que compõe a nossa base de dados de corte.

0, 0 12it i t it ity d X uβ δ β= + + + 1.11

Page 171: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

163

Como a ideia de se estimar um modelo painel é aumentar o número de graus de liberdade, a estimativa usando variáveis dummy de fato não parece ser muito vantajosa. Além disso, conforme alerta Gujarati e Porter (2011), deve-se tomar cuidado com a armadilha das variáveis dummy, assunto discutido em Econometria 1, que ocorre quando introduzimos uma dummy para cada categoria, induzindo os resultados à colinearidade perfeita entre variáveis. Por isso, se tiver quatro indivíduos, por exemplo, você deve incluir apenas três dummy, deixando que o intercepto sirva de base de comparação com a categoria excluída.

4 MODELOS DE EFEITOS ALEATÓRIOS

No modelo de efeitos aleatórios, o intercepto varia para cada indivíduo, mas não varia no tempo. Segundo Greene (2012), se o componente ci for não correlacionado com as demais variáveis explicativas, podemos formular o modelo como:

y E E vit i� � �� �� � � �� ��� ��X ² Z ± Z ± Z ±it'

i'

i'

i' 1.12

Que pode ser reescrito como:

y vit i it� � � �X ²it' � � 1.13

A hipótese dos efeitos aleatórios estabelece que ωi é um grupo específico de elementos, semelhante ao termo de erro composto νit, de forma a podermos assumir que o efeito não observado, ci, tem média zero.

Enquanto no modelo de efeitos fixos ci era correlacionada com Xit, no modelo com efeitos aleatórios, ci não é correlacionada com os regressores. Isso reduz o nosso questionamento em termos de se saber se os efeitos não observados são ou não correlacionados com os regressores para escolhermos o modelo de efeitos fixos ou aleatórios.

O grande problema está na estimação do modelo de painel com efeitos aleatórios. Se estamos supondo a não existência de correlação entre os efeitos não observados, ci, e os regressores, podemos utilizar o método de mínimos quadrados ordinários agrupados, porque geram estimadores consistentes.

Porém, se essa hipótese for violada, ou seja, se houver correlação entre os efeitos não observados e qualquer variável explicativa, a saída é estimar o modelo considerando efeitos fixos, ou a primeira diferença. No entanto, se diferenciarmos ou usarmos o modelo de efeitos fixos para eliminar ci, supondo que esteja correlacionado com um ou mais dos Xs, quando na verdade ela não está, a eliminação de ci gerará estimadores ineficientes (WOOLDRIDGE, 2016).

Page 172: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

164

Como estamos falando em erro de composição nesses modelos painel, temos que ter em mente que os erros são serialmente correlacionados ao longo do tempo, e por isso, as estimativas por MQO agrupados produzem erros padrões incorretos e, consequentemente, prejudicam a inferência estatística. A saída é a estimação por mínimos quadrados generalizados, que além de eliminar a correlação dos erros, gera estimadores consistentes de forma assintótica.

Para encerrar a discussão sobre modelos painel, vamos usar os dados de Grunfeld (1958) e resolver de forma adaptada o exercício proposto por Greene (2012, p. 470). Para isso, você deve abrir o Gretl e no menu “Arquivo” selecionar a opção “Abrir dados” e depois escolher “Arquivos de exemplos”. Na sequência, selecione a aba “Gretl” e procure o arquivo “grunfeld”, dando duplo clique para abri-lo.

Segundo Kleiber e Zeileis (2010), esse conjunto de dados é o mais utilizado em econometria aplicada, estando presente na maioria dos manuais de econometria e o artigo de Grunfeld foi reproduzido diversas vezes ao longo da história.

Grunfeld (1958) queria verificar quanto os gastos com investimento por empresa em um ano (invest) depende do valor real da empresa (value) e do estoque de capital (kstock). Para isso, ele coletou dados da General Motors (GM), US Steel (US), General Electric (GE), Chrysler(CH), Atlantic Refining (AR), IBM, Union Oil (UO), Westinghouse(WH), Goodyear (GY), Diamond Match (DM) e American Steel (AS). A ideia era testar se essas empresas tinham a mesma função de investimento.

Primeiro vamos estimar o modelo de efeitos fixos e posteriormente o modelo de efeitos aleatórios. No modelo de efeitos fixos permitiremos que o intercepto varie para cada empresa, mantendo a inclinação igual para cada uma delas. No caso do modelo de efeitos aleatórios, admitiremos que as diferenças entre as firmas individualmente são representadas pelas variações aleatórias da média dos interceptos para os indivíduos na amostra.

O modelo a ser estimado é:

investit = β1 + β2valueit + β3kstockit + νt 1.14

O primeiro passo é estimar o modelo por mínimos quadrados agrupados, cujo resultado da estimação está no quadro a seguir.

Page 173: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

165

QUADRO 6 – ESTIMAÇÃO DE 1.14 POR MQO AGRUPADO

FONTE: O autor

Obs.: ***, ** e * indicam significância estatística ao nívelde 1%, 5% e 10% respectivamente.

Modelo 1: MQO agrupado, usando 200 observações

Incluídas 10 unidades de corte transversal

Comprimento da série temporal = 20

Variável dependente: invest

coeficiente erro padrão razão-t p-valor

----------------------------------------------------------

const −42,7144 9,51168 −4,491 1,21e-05 ***

value 0,115562 0,00583571 19,80 9,54e-049 ***

kstock 0,230678 0,0254758 9,055 1,35e-016 ***

Média var. dependente 145,9583 D.P. var. dependente 216,8753

Soma resíd. quadrados 1755850 E.P. da regressão 94,40840

R-quadrado 0,812408 R-quadrado ajustado 0,810504

F(2, 197) 426,5757 P-valor(F) 2,58e-72

Log da verossimilhança −1191,802 Critério de Akaike 2389,605

Critério de Schwarz 2399,500 Critério Hannan-Quinn 2393,609

rô 0,956234 Durbin-Watson 0,209716

Se aplicarmos o teste de White, perceberemos que há problemas de heteroscedasticidade no modelo estimado. A autocorrelação também parece presente, considerando a estatística de Durbin-Watson.

A partir do resultado dessa estimação, temos duas opções. A primeira opção é selecionar o menu “Testes” na janela de resultado do modelo estimado e na sequência “Diagnósticos de painel”. Ao fazer isso, o Gretl reporta um conjunto de testes, sendo que o primeiro deles verifica se o modelo por MQO agrupado é adequado ou se devemos estimar o modelo considerando efeitos fixos, conforme o que é apresentado a seguir.

Significância conjunta da diferenciação das médias de grupo: F(9, 188) = 49,1766 com p-valor 0,0000 (Um p-valor baixo contraria a hipótese nula de que o modelo MQO agrupado (pooled) é adequado, validando a hipótese alternativa da existência de efeitos fixos.)

Page 174: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

166

Note que o próprio Gretl revela como interpretar esse teste de diagnóstico. Se o p-valor for muito baixo, como no caso que estamos analisando, rejeitamos a hipótese nula de que a estimação por MQO agrupado é adequado. Neste caso, devemos partir para a estimação considerando efeitos fixos.

O Quadro 7 apresenta o resultado da estimação considerando efeitos fixos. Para rodar esse modelo, você deve selecionar o menu “Modelo”, na tela inicial do Gretl, na sequência escolha a opção “Painel” e depois selecione “Efeitos fixos ou aleatórios”. Na janela de especificação do modelo, você deve marcar a opção “Efeitos fixos”, conforme Figura 2.

O resultado da estimação difere um pouco daquele obtido por MQO agrupado e, como vimos anteriormente, rejeitamos a utilização de MQO em favor do uso do modelo supondo efeitos fixos. Mas será que essa escolha é a mais adequada? A resposta está na própria janela de saída do modelo estimado.

O Gretl reporta um teste estatístico juntamente com o resultado da regressão. Ele verifica, sob hipótese nula de que as unidades de corte, ou seja, as firmas desse modelo painel, têm o mesmo intercepto, como no modelo 1.14, ou seja, o β1 é igual para todas as empresas da amostra. Se essa hipótese não puder ser rejeitada, podemos estimar 1.14 por MQO agrupados, e, por outro lado, se rejeitarmos a hipótese nula, validamos a ideia de que há presença de efeitos fixos no modelo.

FIGURA 2 – JANELA DE ESPECIFICAÇÃO DO MODELO DE EFEITOS FIXOS

FONTE: O autor

Page 175: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

167

QUADRO 7 – ESTIMAÇÃO DE 1.14 POR EFEITOS FIXOS

FONTE: O autor

Obs.: ***, ** e * indicam significância estatística ao nívelde 1%, 5% e 10% respectivamente.

Modelo 2: Efeitos-fixos, usando 200 observaçõesIncluídas 10 unidades de corte transversalComprimento da série temporal = 20Variável dependente: invest

coeficiente erro padrão razão-t p-valor ---------------------------------------------------------- const −58,7439 12,4537 −4,717 4,66e-06 *** value 0,110124 0,0118567 9,288 3,92e-017 *** kstock 0,310065 0,0173545 17,87 2,22e-042 ***

Média var. dependente 145,9583 D.P. var. dependente 216,8753Soma resíd. quadrados 523478,1 E.P. da regressão 52,76796R-quadrado LSDV 0,944073 R-quadrado por dentro 0,766758F(11, 188) LSDV 288,4996 P-valor(F) 2,4e-111Log da verossimilhança −1070,781 Critério de Akaike 2165,562Critério de Schwarz 2205,142 Critério Hannan-Quinn 2181,579rô 0,663925 Durbin-Watson 0,684475

Teste conjunto nos regressores designados - Estatística de teste: F(2, 188) = 309,014 com p-valor = P(F(2, 188) > 309,014) = 3,74892e-060

Teste para diferenciar interceptos de grupos - Hipótese nula: Os grupos têm um intercepto comum Estatística de teste: F(9, 188) = 49,1766 com p-valor = P(F(9, 188) > 49,1766) = 8,70012e-045

Abra novamente a janela de configuração do modelo painel, Figura 2, e agora marque a opção de “Efeitos aleatórios”. O resultado está no quadro a seguir e pode-se perceber que o sinal dos coeficientes estimados é o mesmo nos três modelos, diferenciando-se apenas na magnitude deles.

Page 176: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

168

QUADRO 8 – RESULTADO DA ESTIMAÇÃO DE 1.14 POR EFEITOS ALEATÓRIOS

Modelo 3: Efeitos-aleatórios (GLS), usando 200 observaçõesIncluídas 10 unidades de corte transversalComprimento da série temporal = 20Variável dependente: invest

coeficiente erro padrão z p-valor --------------------------------------------------------- const −57,8344 28,8989 −2,001 0,0454 ** value 0,109781 0,0104927 10,46 1,28e-025 *** kstock 0,308113 0,0171805 17,93 6,41e-072 ***

Média var. dependente 145,9583 D.P. var. dependente 216,8753Soma resíd. quadrados 1841062 E.P. da regressão 96,42765Log da verossimilhança −1196,541 Critério de Akaike 2399,083Critério de Schwarz 2408,978 Critério Hannan-Quinn 2403,087rô 0,663925 Durbin-Watson 0,684475

Variância 'entre' = 7089,8Variância 'por dentro' = 2784,46teta utilizado para quasi-desmediação = 0,861224corr(y,yhat)^2 = 0,806104

Teste conjunto nos regressores designados - Estatística de teste assintótica: Qui-quadrado(2) = 657,674 com p-valor = 0,0000

Teste de Breusch-Pagan - Hipótese nula: Variância do erro de unidade-específica = 0 Estatística de teste assintótica: Qui-quadrado(1) = 798,162 com p-valor = 0,0000

Teste de Hausman - Hipótese nula: As estimativas GLS são consistentes Estatística de teste assintótica: Qui-quadrado(2) = 2,18602 com p-valor = 0,335207

FONTE: O autor

Obs.: ***, ** e * indicam significância estatística ao nívelde 1%, 5% e 10% respectivamente.

A janela de resultados do Gretl reporta dois importantes testes estatísticos. O primeiro deles é o Breusch-Pagan, que tem como hipótese nula que a estimação por MQO agrupado é adequada, contra a hipótese alternativa de que o modelo com efeitos aleatórios é que é adequada.

O segundo teste é o teste de Hausman, que tem como hipótese nula que o modelo de efeitos aleatórios é consistente, contra a hipótese alternativa de que o modelo de efeitos fixos é que é consistente.

Page 177: EconomEtria ii - UNIASSELVI

TÓPICO 1 | MODELOS PAINEL

169

Após estimar 1.14 por MQO agrupado, efeitos fixos e efeitos aleatórios, verificamos que:

i) O modelo estimado por MQO agrupado apresentou problemas de heteroscedasticidade e autocorrelação de primeira ordem.

ii) O diagnóstico de painel obtido a partir da estimação por MQO agrupado revela a existência de efeitos fixos, e, portanto, os estimadores de MQO agrupado são viesados e inconsistentes.

iii) Ao estimar supondo efeitos fixos, verificamos que o modelo estimado é melhor do que aquele estimado por MQO agrupado, conforme teste para diferenciar interceptos de grupos, reportado na janela de estimação do Gretl.

iv) Por outro lado, ao estimar supondo efeitos aleatórios, verificamos pelo teste de Breusch-Pagan, que o modelo de efeitos aleatórios é melhor do que aquele estimado por MQO agrupado e, pelo teste de Hausman, verificamos que o modelo de efeitos aleatórios é melhor do que o modelo de efeitos fixos.

Portanto, se estivéssemos desenvolvendo um relatório de pesquisa, a nossa escolha seria pelo modelo econométrico com efeitos aleatórios, que apresenta os resultados mais consistentes do ponto de vista estatístico.

DICAS

Leia o texto “Determinantes dos investimentos diretos externos em países em desenvolvimento”, de Marcelo José Braga Nonnenberg e Mário Jorge Cardoso de Mendonça, para se aprofundar no assunto em pauta.

A participação dos países em desenvolvimento no total de fluxos de ingresso de Investimentos Diretos Externos (IDEs) vem oscilando consideravelmente nos últimos 25 anos, passando de 15% em 1980 para 46% em 1982, e situando-se pouco acima dos 20% nos últimos quatro anos. Mais importante do que isso, entretanto, é perceber que as motivações para esses movimentos internacionais de capital ainda são substancialmente diferentes daquelas relacionadas aos fluxos de IDEs em direção aos países desenvolvidos, ainda que tenham se alterado nas últimas décadas. Hoje, por exemplo, a busca de recursos naturais, agrícolas ou minerais tem uma importância bem menor do que no início do século XX.

Por outro lado, o movimento contemporâneo desses fluxos é extremamente complexo e obedece a uma grande variedade de fatores ligados ao ambiente competitivo onde as firmas operam, as suas características e a fatores econômicos dos países de origem e dos hospedeiros.

Page 178: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

170

O objetivo desse artigo é estimar, com base em dados de painel, os principais determinantes dos IDEs em direção aos países em desenvolvimento. Como será visto, fatores como o tamanho e o ritmo de crescimento do produto, a qualificação da mão de obra, a receptividade em relação ao capital externo, o risco do país e o desempenho das bolsas de valores estão entre os que exercem efeito sobre o IDE. Além disso, a partir da aplicação do teste de causalidade, no sentido Granger, no contexto de dados em painel, verificou-se causalidade simultânea entre IDE e PIB e não apenas num sentido específico, ou seja, o investimento direto externo sobre PIB, ou no sentido reverso.

FONTE: NONNENBERG, Marcelo José Braga; MENDONCA, Mário Jorge Cardoso de. Determinantes dos investimentos diretos externos em países em desenvolvimento. Estudos Econômicos, São Paulo, v. 35, n. 4, p. 631-655, Dec. 2005. Disponível em: <http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0101-41612005000400002&lng=en&nrm=iso>. Acesso em: 14 fev. 2019.

Page 179: EconomEtria ii - UNIASSELVI

171

Nesse tópico, você aprendeu que:

• Diferentemente dos dados de corte, nos quais pegamos um dado momento no tempo e analisamos os indivíduos e suas interações naquele recorte temporal, e dos dados de séries temporais, em que acompanhamos os indivíduos ou categorias ao longo do tempo, no caso dos dados em painel há uma junção tanto de dados de corte quanto de dados de séries temporais.

• Podemos trabalhar com dados de painel empilhados, no sentido de que colocamos os dados uns sobre os outros, gerando um agrupamento independente de cortes transversais ao longo do tempo porque não acompanhamos o indivíduo de um ano para o outro.

• Ao estimar o modelo econométrico por MQO, podemos verificar se os estimadores são consistentes, testando a hipótese nula de que o modelo por MQO agrupado é adequado, contra a hipótese alternativa da existência de efeitos fixos.

• Podemos aplicar os modelos painel em um experimento natural, em que um evento externo altera o ambiente em que os agentes econômicos atuam. Para aplicar esse experimento, definimos um grupo de controle, que não será afetado pelo evento exógeno e um grupo de tratamento, que é afetado pela mudança.

• O modelo de efeitos fixos considera que as características individuais ou a heterogeneidade dos indivíduos não variam ao longo do tempo e não são correlacionados com a matriz de variáveis explicativas.

• No modelo de efeitos aleatórios, o intercepto varia para cada indivíduo, mas não varia no tempo e o componente dos efeitos aleatórios não observados não são correlacionadas com os regressores.

RESUMO DO TÓPICO 1

Page 180: EconomEtria ii - UNIASSELVI

172

1 Sobre o agrupamento independente de cortes transversais ao longo do tempo, avalie as afirmações a seguir respondendo V para verdadeiro e F para falso.

a) ( ) A diferença entre agrupamento de cortes transversais ao longo do tempo e dados em painel é que o primeiro é extraído de forma aleatória e independente entre períodos enquanto, no segundo, busca-se acompanhar os mesmos indivíduos ao longo do tempo.

b) ( ) Um conjunto de dados sobre eleitores coletados fazendo-se uma seleção aleatória de pessoas de uma população na eleição de 2014, e depois, essas mesmas pessoas são entrevistadas na eleição de 2018, é um exemplo de agrupamento independente de cortes transversais ao longo do tempo porque se refere a dois períodos de tempo distintos.

c) ( ) Uma das razões para coletarmos dados de corte agrupados de forma independente ao longo do tempo é aumentar o tamanho da amostra. No entanto, mesmo que tenhamos uma amostra extremamente grande, ainda assim teremos dificuldade em obter estimadores mais precisos e estatísticas de teste mais poderosas, assintoticamente falando, do que se usarmos somente dados de corte ou séries temporais.

d) ( ) Em dados de cortes transversais independentes ao longo do tempo, não acompanhamos os mesmos indivíduos entre os períodos distintos de tempo, por isso não faz sentido fazer a diferenciação de pares de observações distintas ao longo do tempo.

2 Ainda sobre modelos painel, classifique as sentenças a seguir em V para verdadeiras e F para as falsas:

a) ( ) Um experimento natural ocorre quando um evento exógeno, como, por exemplo, uma mudança de política do governo, altera o meio no qual os agentes operam.

b) ( ) A existência de dois grupos e períodos de tempo distintos é suficiente para a utilização do método de diferenças-em-diferenças.

c) ( ) Para que possamos estimar consistentemente nosso modelo por MQO agrupado, deverá ser válida a hipótese que o efeito fixo não observado é não correlacionado com as variáveis explicativas ao longo do tempo (Assumindo que o erro idiossincrático também não tenha correlação com tais variáveis).

d) ( ) O teste de Hausman serve para testar se o estimador de efeitos fixos é consistente.

3 Estamos lidando com dados de dois períodos de tempo e 50 unidades de corte, representando estados. Estimamos dois modelos, um pelo método de painel de efeitos fixos e comparamos os resultados com o segundo, estimado considerando efeitos aleatórios.

AUTOATIVIDADE

Page 181: EconomEtria ii - UNIASSELVI

173

Os resultados são os seguintes:

Teste para diferenciar grupos de intercepções no eixo x=0Hipótese nula: Os grupos têm a mesma intercepção no eixo x=0Estatística de teste: F(49, 46) = 6,12419com valor p = P(F(49, 46) > 6,12419) = 0,0000

Teste Breusch-Pagan -Hipótese nula: Variância do erro de unidade-específica = 0Estatística de teste assimptótica: Qui-quadrado(1) = 23,8693com valor p = 0,0000

Teste Hausman -Hipótese nula: As estimativas MQG são consistentesEstatística de teste assimptótica: Qui-quadrado(4) = 6,81765com valor p = 0,145844

Obs.: Entre parênteses estão as estatísticas t, ***, ** e * indicam significância estatística a 1, 5 e 10% respectivamente.

Os seguintes testes estatísticos foram empregados:

Com base nos resultados, classifique as sentenças a seguir em V para verdadeiras e F para as falsas:

a) ( ) Se tivéssemos que escolher entre os dois modelos, escolheríamos o de efeitos fixos.

b) ( ) Os estimadores de efeitos aleatórios gerados por MQG são consistentes (não viesados) e distribuídos normal e assintoticamente conforme N fica maior com T fixo.

Coeficientes estimados Efeitos fixos Efeitos aleatórios

β013,7883(2,172)**

5,8405(5,433)***

δ0d90 0,0979(0,1906)

-0,9971(-4,664)***

baixpesoit0,2950

(0,8370)0,8193

(7,658)***

rendpcit-0,0003

(-1,928)*0,000

(0,2125)

medicit-0,0055

(-0,1685)-0,0081

(-2,172)**

Page 182: EconomEtria ii - UNIASSELVI

174

Page 183: EconomEtria ii - UNIASSELVI

175

TÓPICO 2

MODELOS DE REGRESSÃO DE RESPOSTA

QUALITATIVA

UNIDADE 3

1 INTRODUÇÃO

Desde que começou a estudar econometria, você teve a oportunidade de aprender diversos modelos úteis para análise econômica, projeção de indicadores, criação de cenários, avaliação de políticas públicas e uso no meio empresarial. A econometria tem um amplo espectro de áreas nas quais pode ser empregada e o que vimos até agora comprova isso.

Até agora tratamos a varável dependente como uma variável quantitativa, no sentido de que ela pode ser mensurada, tem uma medida padrão, quer seja quilogramas, metros, valores monetários, taxa de crescimento etc. O que veremos nesse tópico é um tipo especial de modelo econométrico que nos ajudará a prever a probabilidade de uma determinada escolha a ser feita, quando estão disponíveis outras opções igualmente viáveis.

Podemos pensar, por exemplo, na probabilidade de o Banco Central brasileiro elevar a taxa de juros, considerando variáveis macroeconômicas como inflação, desemprego e crescimento do PIB, quando tem como opção alternativa a manutenção da taxa no atual patamar.

Da mesma forma, podemos pensar nas chances de um criminoso cometer algum crime, considerando o tempo de pena que ele já cumpriu, o número de condenações, e o fato de ele ter ou não um emprego formal. Ou ainda, pensando em uma gôndola de supermercado, qual a probabilidade de um cliente comprar uma determinada marca de refrigerante em promoção, quando lhe é oferecido outra marca concorrente na mesma gôndola.

Note que estamos falando em possibilidades, chances e probabilidades. Isso significa que o evento acontecerá ou não. A variável dependente, neste caso, é uma variável qualitativa ao invés de ser uma variável quantitativa. O Bacen pode elevar ou não a taxa de juros, a pessoa pode cometer um crime ou não e o consumidor pode comprar ou não o refrigerante em promoção, considerando todas as alternativas disponíveis no momento em que os agentes estão tomando as suas decisões.

Page 184: EconomEtria ii - UNIASSELVI

176

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

Você deve lembrar de Econometria 1, na qual incluímos, nos modelos de regressão, uma variável explicativa muito útil para diferenciar categorias, por exemplo, o gênero, raça, região geográfica, estado civil, entre outros. Trata-se da variável dicotômica que assume valor igual a zero ou um. Naquela oportunidade, a dummy estava do lado direito do sinal de igualdade, nos modelos econométricos e agora ela entra no lado esquerdo do sinal de igualdade, como uma variável dependente.

Podemos citar como exemplo de variável dependente qualitativa se a pessoa está empregada ou não, se ela é casada ou não, se o eleitor vota no candidato número um ou não, se as pessoas assistem a um determinado canal de TV ou não, entre outros. Para todas essas variáveis, a resposta será sempre sim ou não ou, dito de outra forma, 0 ou 1.

Começaremos este tópico apresentando o Modelo de Probabilidade Linear, que é uma forma simples de se calcular a probabilidade de um evento ocorrer, utilizando o método de mínimos quadrados ponderados. Na sequência, veremos o modelo Logit, que utiliza uma função de probabilidade acumulada logística e que, devido às complicações técnicas, não é possível estimar usando os tradicionais mínimos quadrados ordinários, mas sim a estimação por máxima verossimilhança. Encerramos o tópico com o modelo Probit ou Normit, que utiliza a distribuição normal como base de estimação, mas que da mesma forma que o Logit, a técnica utilizada para estimação é por máxima verossimilhança.

2 O MODELO DE PROBABILIDADE LINEAR

Em um modelo que emprega como variável dependente uma dummy, por convenção, essa variável assume valor igual a 1 sempre que uma determinada característica estiver presente ou se determinada condição existir (chove, masculino, sul, elevação etc.) e tem valor igual a 0 caso contrário (faz sol, feminino, outra região geográfica, baixa etc.). Representamos a variável dependente como:

1 se o indivíduo i tem a característica

0 se o indivíduo i não tem a característicaiy =

Hill, Griffiths e Judge (2010, p. 428) utilizam como exemplo a escolha das pessoas entre dirigir seu próprio carro para ir ao trabalho ou pegar transporte coletivo. Neste caso, a variável dependente terá a seguinte característica:

1 se a pessoa dirige para o trabalho

0 se a pessoa toma ônibus para o trabalhoiy =

Quais as variáveis que determinam a escolha de uma pessoa entre dirigir o seu automóvel ou pegar um transporte coletivo para o trabalho? Podemos pensar como uma explicação para essa escolha dicotômica o tempo gasto no trajeto de carro e o tempo gasto no trajeto de ônibus, por exemplo.

Page 185: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

177

Dessa forma, o diferencial de tempo é a informação relevante na escolha entre a forma de ir para o trabalho. Assim, definimos dtime = (bustime – autotime), em que bustime é o tempo de viagem de ônibus, em minutos, autotime é o tempo de viagem de carro, também em minutos e dtime é o diferencial em minutos entre ir de ônibus para o trabalho e ir de carro.

Os dados para esse primeiro exemplo estão na tabela a seguir, o modelo econométrico de probabilidade linear a ser estimado é o 2.1, cujos resultados da estimação por mínimos quadrados ordinários estão no Quadro 9.

1 2i i iauto dtime uβ β= + + 2.1

TABELA 7 – DADOS DE TRANSPORTE

Obs autotime bustime dtime auto Obs autotime bustime dtime auto1 52,9 4,4 -48,5 0 12 18,5 84 65,5 12 4,1 28,5 24,4 0 13 82 38 -44 13 4,1 86,9 82,8 1 14 8,6 1,6 -7 04 56,2 31,6 -24,6 0 15 22,5 74,1 51,6 15 51,8 20,2 -31,6 0 16 51,4 83,8 32,4 16 0,2 91,2 91 1 17 81 19,2 -61,8 07 27,6 79,7 52,1 1 18 51 85 34 18 89,9 2,2 -87,7 0 19 62,2 90,1 27,9 19 41,5 24,5 -17 0 20 95,1 22,2 -72,9 010 95 43,5 -51,5 0 21 41,6 91,5 49,9 111 99,1 8,4 -90,7 0

FONTE: Hill, Judge e Griffiths (2010, p. 434)

Note no quadro, que pela estimação por MQO os coeficientes estimados são estatisticamente significativos ao nível de 1% de significância estatística. O diferencial de tempo entre ir de ônibus ou de carro é positivo, indicando que um aumento no tempo gasto com transporte coletivo aumenta a probabilidade de a pessoa ir de carro para o trabalho.

Page 186: EconomEtria ii - UNIASSELVI

178

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

QUADRO 9 – RESULTADO DA ESTIMAÇÃO DO MODELO 2.1 POR MQO

Modelo 1: MQO, usando as observações 1-21Variável dependente: auto

coeficiente erro padrão razão-t p-valor --------------------------------------------------------- const 0,484795 0,0714494 6,785 1,76e-06 *** dtime 0,00703099 0,00128616 5,467 2,83e-05 ***

Média var. dependente 0,476190 D.P. var. dependente 0,511766Soma resíd. quadrados 2,035914 E.P. da regressão 0,327343R-quadrado 0,611326 R-quadrado ajustado 0,590869F(1, 19) 29,88410 P-valor(F) 0,000028Log da verossimilhança −5,295144 Critério de Akaike 14,59029Critério de Schwarz 16,67933 Critério Hannan-Quinn 15,04366

FONTE: O autor

Obs.: ***, ** e * indicam significância estatística ao nívelde 1%, 5% e 10% respectivamente.

Note que, como autoi pode assumir apenas dois valores, 0 e 1, se dissermos que autoi = Yi, e se fizermos Pi, a probabilidade da pessoa ir de carro para o trabalho, podemos escrever a função de probabilidade como:

( )1i iP Prob Y= = 2.2

( ) ( )1 0i iP Prob Y− = = 2.3

Assim, E(Yi) = 1(Pi) + 0(1 – Pi) = Pi, onde Pi = probabilidade de que Yi = 1 (ocorrência do evento) e (1 – Pi) = probabilidade de que Yi = 0 (o evento não ocorra). Dito de outra forma, existem apenas dois eventos mutuamente exclusivos, que na literatura estatística se atribuem os nomes de sucesso e fracasso.

Se a pessoa pega o ônibus, o resultado do experimento é o sucesso, assim, Yi = 1. Se a pessoa utiliza o transporte coletivo, dizemos que o resultado do experimento é um fracasso e, portanto, Yi = 0. Essa é a chamada distribuição de probabilidade de Bernoulli e, para um estudo aprofundado, sugiro que você veja Sartoris (2013), que traz uma explicação bem didática sobre essa e outras distribuições estatísticas que usamos na econometria.

Se Yi = β1 + β2Xi + ui, onde Yi é uma dummy, a variância do termo de erro é dada por:

( ) ( ) ( ) ( )2 2 1 1i i i i iE E Y E Y P Pδ ε = = − = − 2.4

Page 187: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

179

Como mostra Gujarati e Porter (2011, p. 540), a média dessa distribuição binomial é np e variância é np(1 – p), o que implica a variância ser uma função da média e que essa variância do erro é heteroscedástica. Com isso temos dois problemas:

1. Distribuição do termo de erro não é normal (distribuição de Bernoulli).2. A variância do erro é heteroscedástica.

Em termos práticos, isso significa que apesar dos estimadores de MQO serem não tendenciosos, eles não são eficientes, ou seja, não têm variância mínima. Por este motivo, a estimação por MQO apresentada no Quadro 9 não é válida dentro do contexto dos modelos de resposta qualitativa. A saída é estimar por Mínimos Quadrados Ponderados.

Gujarati e Porter (2011) sugerem dividir o modelo econométrico por:

( ) ( ) ( )| 1 | 1i i i i i iE Y X E Y X P P − = − 2.5

Fazendo ( )1i i iw P P= − , podemos escrever o modelo como:

12

i i i

i i i i

Y X uw w w w

β β= + + 2.6

A desvantagem de se usar essa técnica é que não é possível obter a raiz quadrada de um número negativo, o que pode inviabilizar a estimação do modelo de regressão por MQP. A saída é restringir os valores estimados a ficarem entre 0 e 1, afinal, a probabilidade Pi deve ser maior do que zero e menor do que 1 para fazer sentido, então:

( )0 | 1i iE Y X≤ ≤ 2.7

Assim, uma forma de superar o problema da estimação de valores maiores do que um e menores do que zero é proceder o ajuste de forma que os valores fora do intervalo 0,1 devem ser igualados a 0,01 e 0,99. Para fazer isso, como já fizemos a estimação do modelo econométrico previamente, acesse o menu “Salvar” na janela de resultado e escolha a opção “Valores ajustados”. O Gretl abre uma janela na qual você deverá nomear a série de valores ajustados de Y ou aceitar a sugestão oferecida, “yhat1”.

Abra essa série de dados e clique no botão “Editar valores” (ver figura a seguir) e substitua os valores maiores que 1 por 0,99 e os negativos por 0,01.

Page 188: EconomEtria ii - UNIASSELVI

180

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

FIGURA 3 – EDIÇÃO DE VALORES DA BASE DE DADOS

FONTE: O autor

Agora você deve ir na tela inicial do Gretl e selecionar o menu “Acrescentar”, depois escolha a opção “Definir nova variável” e, na janela que será aberta, digite o comando w = yhat * (1 – yhat1). Note que não tiramos a raiz quadrada dessa variável de peso, como em 2.5 e 2.6. Não fizemos isso porque o Gretl, ao rodar a rotina por MQ ponderado, encarregar-se-á de tirar essa raiz automaticamente.

Para rodar a regressão por mínimos quadrados ponderados, selecione o menu “Modelo” na tela inicial do Gretl. Depois escolha “Outros modelos lineares” e na sequência “Mínimos Quadrados Ponderados”, preenchendo as informações conforme a figura a seguir.

O resultado do modelo estimado está no Quadro 10. O fato de termos limitado o valor estimado de Y a ficar entre 0 e 1 torna a estimativa por MQP não eficiente em amostra finita, além de ser sensível a erros de especificação. Esse é um dos motivos pelos quais a estimação do modelo de probabilidade linear logo caiu em desuso, o outro é o avanço da tecnologia que permite estimar facilmente os modelos com outras distribuições de probabilidade por máxima verossimilhança, como veremos adiante.

Page 189: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

181

FIGURA 4 – JANELA DE ESPECIFICAÇÃO DO MODELO DE MQP

FONTE: O autor

Perceba que o sinal dos coeficientes estimados continua positivo e os estimadores são estatisticamente significativos, mas os valores estão ligeiramente diferentes. O intercepto de 0,4311 indica que a probabilidade de a pessoa ir de carro para o trabalho, independentemente do tempo gasto de ônibus, é de 44,11%. Por sua vez, cada minuto adicional no tempo de viagem de ônibus aumenta a probabilidade de ir de carro para o trabalho em 0,90%.

QUADRO 10 – RESULTADO DA ESTIMAÇÃO DO MODELO 2.1 POR MQP

Modelo 2: WLS, usando as observações 1-21Variável dependente: autoVariável usada como peso: w

coeficiente erro padrão razão-t p-valor --------------------------------------------------------- const 0,431145 0,0845048 5,102 6,33e-05 *** dtime 0,00897430 0,00223173 4,021 0,0007 ***

Estatísticas baseadas nos dados ponderados:

Soma resíd. quadrados 0,356234 E.P. da regressão 0,136927R-quadrado 0,459772 R-quadrado ajustado 0,431339F(1, 19) 16,17033 P-valor(F) 0,000730Log da verossimilhança 13,00755 Critério de Akaike −22,01510Critério de Schwarz −19,92605 Critério Hannan-Quinn −21,56172

FONTE: O autorObs.: ***, ** e * indicam significância estatística ao nível de 1%, 5% e 10% respectivamente.

Page 190: EconomEtria ii - UNIASSELVI

182

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

Suponha que o tempo médio para se chegar ao trabalho de ônibus aumente em 20 minutos. Neste caso, a probabilidade de se dirigir ao invés de usar o transporte coletivo é de:

�20min 1 2

ˆ ˆˆ i iP auto dtimeβ β= = + 2.8

20min 0, 43114 0,00897 20P̂ = + × 2.9

20min 4ˆ 0,6105P = 2.10

Ou seja, a probabilidade de se dirigir até o trabalho é de aproximadamente 61%, se houver um aumento no tempo de utilização do transporte coletivo, em comparação ao carro, de 20 minutos. Esse tipo de estudo é extremamente relevante para o planejamento da mobilidade urbana nas cidades médias e grandes de qualquer país do mundo.

3 O MODELO LOGIT

O modelo Logit se baseia na função de probabilidade logística acumulada e é especificado como:

( ) ( )1 2

11|1 ii i XP E Y X

e β β− += = =

+ 2.11

Que pode ser reescrita como:

11 1i

Z

i Z ZeP

e e−= =+ +

2.12

Onde “e” representa a base de logaritmos naturais (aproximadamente 2,718), Pi é a probabilidade de um indivíduo fazer certa escolha, dado Xi, e Zi = β1 + β2Xi + ui. Observe que em 2.11, Pi não é linear nem nas variáveis e tão pouco nos parâmetros, o que implica em dizer que não podemos empregar os tradicionais MQO para estimar aquela equação. Além disso, Zi varia entre –∞ e + ∞ e com isso Pi varia entre 0 e 1. Embora as probabilidades se situem (por necessidade) entre 0 e 1, os Logits não são submetidos a essa restrição, como no caso do modelo de probabilidade linear.

Segundo Gujarati e Porter (2011), se Pi é a probabilidade de um determinado evento ocorrer, então, 1 – Pi é a probabilidade desse evento não ocorrer. Podemos escrever essa probabilidade de não ocorrer determinado evento como:

111 ii ZP

e− =

+ 2.13

Page 191: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

183

Definimos a razão de chances de um evento ocorrer como 1

iZi

i

P eP=

− e,

aplicando o logaritmo natural, obtemos:

1i

i ii

PL ln ZP

= = −

2.14

Onde Zi = β1 + β2Xi, agora Li é o logaritmo das razões de chances de um evento ocorrer e na literatura econométrica é chamado de Logit.

Digamos que a probabilidade de uma pessoa utilizar o carro para ir para o trabalho, Pi, seja de 60%, e consequentemente a probabilidade de não ir de carro para o trabalho, 1 – Pi, será de 40%. Podemos calcular a razão de chances de uma pessoa ir para o trabalho de carro fazendo:

0,60 1,51 0,40

i

i

PP= =

− 2.15

Isso significa que existe 1,5 chances contra 1 de a pessoa ir de carro para o trabalho. A figura a seguir apresenta a função densidade de probabilidade de uma distribuição logística. Note que a inclinação da distribuição logística acumulada é mais elevada na parte central do gráfico, onde Pi = 0,5. Podemos ver também que se Xi variar uma unidade, o efeito maior é percebido quando Pi = 0,5 e é menor nos extremos 0 ou 1. Dito de outra forma, é preciso uma mudança muito grande em Xi para ocorrer pequenas mudanças na probabilidade quando Pi está perto de 0 ou 1.

FIGURA 5 – FUNÇÃO DENSIDADE DE PROBABILIDADE DEUMA DISTRIBUIÇÃO LOGÍSTICA

FONTE: O autor

Page 192: EconomEtria ii - UNIASSELVI

184

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

A estimação dos parâmetros do modelo por MQO ou por MQP não é possível, então, conforme Pindyck e Rubinfeld (2004), a técnica de Máxima Verossimilhança (MV) proporciona estimadores consistentes para os parâmetros e estatísticas adequadas para inferência. Uma das vantagens dessa técnica de estimação é que esse método foi desenvolvido para amostras grandes, gerando erros padrão assintóticos. Além disso, a inferência tem como base a tabela de distribuição normal ao invés de usarmos a estatística t.

No Tópico 3, teremos uma explicação rápida da técnica de estimação por máxima verossimilhança, mas para uma análise aprofundada do seu emprego em modelos Logit, veja o apêndice do capítulo 15 da obra Econometria básica de Gujarati e Porter (2011). Os autores apresentam a equação a ser estimada como:

( ) ( ) ( )1 21 2 1 2

1 1

ln , , , ln 1 in n

Xn i if Y Y Y Y X e β ββ β + … = + − + ∑ ∑ 2.16

DICAS

Recomendamos a leitura da seguinte obra: GUJARATI, Damodar N.; PORTER, Dawn C. Econometria básica. 5. ed. Porto Alegre: AMGH, 2011. 924 p.

Todos os softwares econométricos possuem rotina pronta para a estimação por máxima verossimilhança dos modelos Logit e o Gretl não é diferente. No entanto, não usaremos o R2 para medir a qualidade do ajustamento. Para isso, usamos o Cout R2, que varia entre 0 e 1 e é obtido pela equação:

2

númerode previsões corretasCountRnúmerototal deobservações

= 2.17

Para testar a significância conjunta dos coeficientes estimados, usamos a estatística de Razão de Verossimilhança, que segue uma distribuição qui-quadrado com graus de liberdade igual ao número de variáveis explanatórias.

Page 193: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

185

FIGURA 6 – JANELA DE ESPECIFICAÇÃO DO MODELO LOGIT

FONTE: O autor

Usaremos novamente os dados da Tabela 7 e para estimar o modelo Logit, na tela inicial do Gretl, selecionamos o menu “Modelo”, na sequência escolhemos “Variável limitada dependente”, depois escolhemos a opção “Logit” e na sequência “Binário”. O Gretl abrirá uma janela para especificar o modelo, que você deve preencher como na Figura 6.

O resultado da estimação está no quadro a seguir. Podemos ver pelo Count R2 que o modelo é capaz de prever corretamente 90,5% dos casos. Além disso, a razão de verossimilhança apresenta um p-valor = 0,0000. Essa estatística trabalha com a hipótese nula de que os coeficientes angulares parciais em conjunto são iguais a zero. No nosso caso, como só temos um β, rejeitamos a hipótese nula de que esse coeficiente estimado é estatisticamente igual a zero

Page 194: EconomEtria ii - UNIASSELVI

186

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

QUADRO 11 – RESULDADO DA ESTIMAÇÃO DO MODELO LOGIT POR MV

FONTE: O autorObs.: ***, ** e * indicam significância estatística

em nível de 1%, 5% e 10% respectivamente.

Modelo 1: Logit, usando as observações 1-21Variável dependente: autoErros padrão baseados na hessiana

coeficiente erro padrão z p-valor -------------------------------------------------------- const −0,237575 0,750477 −0,3166 0,7516 dtime 0,0531098 0,0206423 2,573 0,0101 **

Média var. dependente 0,476190 D.P. var. dependente 0,511766R-quadrado de McFadden 0,575700 R-quadrado ajustado 0,438075Log da verossimilhança −6,166042 Critério de Akaike 16,33208Critério de Schwarz 18,42113 Critério Hannan-Quinn 16,78546

Número de casos 'corretamente previstos' = 19 (90,5%)f(beta'x) na média das variáveis independentes = 0,244Teste de razão de verossimilhança: Qui-quadrado(1) = 16,7325 [0,0000]

Previsto 0 1 Efetivo 0 10 1 1 1 9

Cada minuto adicional de diferença entre ir de ônibus para o trabalho ou ir de carro altera o Logit em 0,0531 unidades. É uma interpretação estranha, mas você deve lembrar que o Logit mede o logaritmo das razões de chances de um evento ocorrer. Neste caso, o logaritmo das razões de chances de uma pessoa dirigir até o trabalho quando há um aumento no tempo de viagem usando o transporte coletivo.

Em muitas aplicações práticas o que mais importa nem sempre é a interpretação do coeficiente estimado em si, mas sim o sinal desse coeficiente e o fato de ele ser ou não estatisticamente significativo. Porém, podemos calcular a probabilidade de um motorista específico de carro para o trabalho, considerando a diferença entre o tempo de transporte público e carro de um indivíduo específico.

Vamos abrir o banco de dados e verificar as informações do 21º motorista e calcular a probabilidade de ele dirigir até o trabalho ao invés de pegar ônibus. Você pode perceber que houve um dtime21 = 49,9, ou seja, a diferença entre ir de ônibus e ir de carro para o trabalho é de 49,9 minutos e esse motorista específico optou por ir de carro para o trabalho (auto21 = 1).

Substituindo essas informações em 2.11 obtemos:

( ) ( )21 21 2,4126040200,237575 0,0531098 49,9

1 11| 0,917811

P E Y Xee −−− + ×

= = = = =++

2.18

Page 195: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

187

Temos, portanto, 91,78% de probabilidade efetiva do motorista número 21 ir de carro para o trabalho.

4 O MODELO PROBIT

O modelo Probit é muito parecido com o modelo Logit visto anteriormente. Ao invés de utilizar uma função de probabilidade acumulada logística, ele utiliza a distribuição normal acumulada, por esse motivo, algumas vezes é chamado de Normit.

Para entender o funcionamento do Probit, voltaremos ao exemplo utilizado até agora, supondo que as pessoas tenham apenas duas opções para ir ao trabalho. Ou elas vão de carro dirigindo, ou elas vão de transporte coletivo (ônibus). Vamos supor também um índice de força, Zi, e que esse índice é uma função linear do diferencial de tempo entre ir de ônibus para o trabalho e ir dirigindo um carro, representado por Xi.

Sendo Yi uma variável binária que assume valor igual a 1 caso o indivíduo escolha ir de carro para o trabalho e 0 caso ele escolha ir de ônibus, então, para cada pessoa, Zi representa o valor crítico de divisão para a decisão de ir para o trabalho. Especificamente, o indivíduo escolhe:

• Ir de carro para o trabalho se Zi > Zi.• Ir de ônibus para o trabalho se Zi ≤ Zi.

Podemos escrever a função normal acumulada padronizada como:

( )221

2

iZs ds

i iP F Z eπ

−∞

= = ∫ 2.19

Onde “s” é uma variável aleatória com distribuição normal padrão, com média zero e variância igual a 1. Com isso, o modelo Probit considera Zi uma variável aleatória de modo que a probabilidade de Zi ser igual ou menor a Zi pode ser computada através da função de probabilidade normal acumulada e, por construção, a variável Pi estará no intervalo (0,1).

A figura a seguir mostra a função de distribuição acumulada do Probit, que é a FDA da distribuição normal, como já dissemos. A probabilidade é medida pela área abaixo da curva normal padrão, que vai de –∞ até Zi, o que significa que evento terá maior probabilidade de ocorrer quanto maior for o valor do índice Zi.

A estimativa do índice Zi é obtida a partir do inverso da função normal acumulada, calculando a área sob a curva como:

( )1i i iZ F P Xα β−= = + 2.20

*

**

*

*

Page 196: EconomEtria ii - UNIASSELVI

188

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

FIGURA 7 – FUNÇÃO DE DENSIDADE ACUMULADA DO PROBIT

FONTE: O autor

Dessa forma, interpretamos Pi como uma estimativa da probabilidade condicional de um indivíduo ir de carro para o trabalho, por exemplo, dado que a diferença entre o tempo de ir de ônibus e ir de carro para essa pessoa é Xi.

Da mesma forma que o Logit, a estimação do Probit se dá por Máxima Verossimilhança, e para isso, acesse o menu “Modelo” na tela inicial do Gretl, escolha a opção “Variável limitada dependente”, na sequência escolha “Probit” e a opção “Binário”. O resultado da estimação sobre a escolha das pessoas entre ir de carro para o trabalho ou ir de ônibus está no Quadro 12. A janela de especificação do modelo é semelhante ao do Logit e seu preenchimento também.

Como os modelos Logit e Probit são semelhantes na estimação, por usar a técnica de máxima verossimilhança, a janela de resultado reportado pelo Gretl apresenta algumas estatísticas que foram mostradas no Logit.

O Count R2 indica que o modelo é capaz de prever corretamente 90,5% dos casos e a razão de verossimilhança é estatisticamente significativa. O problema surge quando olhamos o teste de normalidade dos resíduos apresentado no final da janela de resultado. Por ser um Probit, baseado em uma distribuição normal, esperamos que os resíduos gerados sejam normalmente distribuídos. Analisando o resultado do teste de normalidade, vemos que essa hipótese é rejeitada, e, portanto, o modelo Probit não se mostra adequado para a pesquisa que estamos desenvolvendo.

Page 197: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

189

QUADRO 12 – RESULTADO DA ESTIMAÇÃO DO PROBIT POR MV

Modelo 1: Probit, usando as observações 1-21Variável dependente: autoErros padrão baseados na hessiana

coeficiente erro padrão z p-valor -------------------------------------------------------- const −0,0644338 0,399244 −0,1614 0,8718 dtime 0,0299990 0,0102867 2,916 0,0035 ***

Média var. dependente 0,476190 D.P. var. dependente 0,511766R-quadrado de McFadden 0,575761 R-quadrado ajustado 0,438136Log da verossimilhança −6,165158 Critério de Akaike 16,33032Critério de Schwarz 18,41936 Critério Hannan-Quinn 16,78369

Número de casos 'corretamente previstos' = 19 (90,5%)f(beta'x) na média das variáveis independentes = 0,397Teste de razão de verossimilhança: Qui-quadrado(1) = 16,7342 [0,0000]

Previsto 0 1 Efetivo 0 10 1 1 1 9

Teste da normalidade dos resíduos - Hipótese nula: o erro tem distribuição Normal Estatística de teste: Qui-quadrado(2) = 11,3978 com p-valor = 0,00334961

FONTE: O autorObs.: ***, ** e * indicam significância estatística ao

nível de 1%, 5% e 10% respectivamente.

A interpretação direta do coeficiente β no Probit, conforme Gujarati e Porter (2011), requer o cálculo de βjF(Zi), em que F(Zi) é a função de densidade de probabilidade normal padrão de Zi, e Zi = α + βXi, ou seja, o resultado da regressão estimada. Por esse motivo, em muitas aplicações práticas se busca verificar o sinal do coeficiente estimado da variável explicativa e a sua significância estatística.

O Quadro 13 apresenta o resultado das estimações por MQP, Logit e Probit para o caso que estamos estudando. Como o processo de estimação e as funções de densidade acumulada têm estruturas diferentes, não podemos comparar esses resultados diretamente. Porém, Gujarati e Porter (2011), Maddala (2003), Hill, Judge e Griffiths (2010) e outros autores sugerem a conversão dos modelos através do seguinte procedimento:

• Para comparar o resultado do Logit com o Probit, devemos multiplicar os coeficientes estimados do Logit por 0,625.

• Podemos comparar o resultado do Logit com o MPL multiplicando os coeficientes angulares parciais estimados do Logit por 0,25 e, no caso da constante, multiplica-se por 0,25, somando-se 0,5.

• O resultado do Probit pode ser comparado como MPL dividindo-se o coeficiente angular parcial por 2,5 e somando-se 1,25 à constante do Probit e, posteriormente, dividimos esse resultado por 2,5.

Page 198: EconomEtria ii - UNIASSELVI

190

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

QUADRO 13 – COMPARANDO OS MODELOS ESTIMADOS

FONTE: O autorObs.: ***, ** e * indicam significância estatística ao nível de 1%, 5% e 10% respectivamente.

Variável dependente: auto

(1) (2) (3) MPQ Logit Probit

const 0,4311** -0,2376 -0,06443 (0,08450) (0,7505) (0,3992) [0,0001] [0,7516] [0,8718]

dtime 0,008974** 0,05311** 0,03000** (0,002232) (0,02064) (0,01029) [0,0007] [0,0101] [0,0035]

n 21 21 21R-quadrado 0,4598 0,5757 0,5758 lnL 13,01 -6,166 -6,165

Erros padrão entre parêntesesp-valores entre colchetes* indica significância ao nível de 10 por cento** indica significância ao nível de 5 por centoPara logit e probit, o R-quadrado é o pseudo-R-quadrado de McFadden

A tabela a seguir apresenta os modelos Logit e Probit convertidos para MPL, o que nos permite uma interpretação mais intuitiva dos resultados obtidos. Note que os coeficientes estimados são muito parecidos e lembra-se de que a constante só é estatisticamente significativa no modelo de probabilidade linear.

TABELA 8 – CONVERSÃO DOS MODELOS LOGIT E PROBIT EM MPL

FONTE: O autorObs.: ***, ** e * indicam significância estatística ao nível

de 1%, 5% e 10% respectivamente.(a) Coeficiente estimado convertido em MPL, onde o modelo de probabilidade linear foi

estimado por mínimos quadrados ponderados

MPL Logit (a) Probit (a)Constante 0,4311*** 0,4406 0,4742

dtime 0,0090*** 0,0133** 0,0120***

Page 199: EconomEtria ii - UNIASSELVI

TÓPICO 2 | MODELOS DE REGRESSÃO DE RESPOSTA

191

A maior parte dos artigos que empregam variáveis dependentes qualitativas utiliza os modelos Logit em sua estimação, pela facilidade em se obter os resultados com o auxílio dos programas computacionais e pelas exigências do Probit e do MPL, que tornam a estimação muito trabalhosa no caso do MPL e a interpretação complexa no caso do Probit.

Porém, esses três modelos não são os únicos que existem. O capítulo 11 da obra intitulada Econometric theory and methods de Davidson e Mackinnon (2003) apresenta uma série de modelos em uma linguagem técnica mais avançada. Por outro lado, o capítulo 15 da obra Econometria básica de Gujarati e Porter (2011) apresenta essas mesmas opções e outras, em uma linguagem mais acessível a estudantes de graduação, motivo pelo qual recomendamos a leitura.

DICAS

DIMENSIONAMENTO DO MERCADO DE BANDA LARGA NO BRASIL

A tecnologia de banda larga aparece como sendo indispensável hoje em dia para a sociedade. Seus benefícios são abrangentes, alcançando os serviços de telefonia, redes de computadores, conexão por satélites etc. Isso faz com que o efeito econômico da expansão da banda larga seja significativo, o que já foi constatado por diversos estudos (entre outros, Stiroh, 2002; Czernich et al., 2009; Qiang e Rossotto, 2009; Katz, 2008 e 2012). No Brasil, o impacto econômico da banda larga também foi estimado e se mostrou igualmente positivo, como atestam os estudos de Macedo e Carvalho (2010a; 2010b). Mais recentemente, Carvalho, Mendonça e Silva (no prelo) investigaram o assunto e mostraram que a ampliação de 1% do acesso à banda larga acarreta um aumento de 0,077% no produto interno bruto (PIB), ocorrendo de forma heterogênea entre diferentes regiões do país.

Embora no Brasil já se tenha a percepção da importância do acesso à banda larga, há muito ainda a ser feito, diferentemente do que acontece com a telefonia fixa, em que a universalização deste serviço é fato consumado. Dados da Agência Nacional de Telecomunicações (Anatel) mostram que no Brasil a infraestrutura de banda larga é ainda precária. Existem no país 2.325 municípios que não possuem backhaul de fibra, sendo que 58% situam-se nas regiões Norte e Nordeste, o que faz com que tenhamos 14% da população brasileira desassistida. Mesmo nos municípios dotados de backhaul de fibra, a qualidade do serviço de banda larga fica aquém do desejado. Na média, a velocidade da banda larga nos 2.221 municípios que possuem backhaul de fibra é de 5 Mbps. As regiões Norte e Nordeste possuem as mais baixas velocidades.

Tendo em mente o cenário atual da banda larga no Brasil, cabe dizer que o mercado brasileiro de banda larga é nitidamente limitado não por falta de demanda, mas por força do estado corrente da sua infraestrutura. Faz-se então a conjectura de que existe um grande potencial de expansão desse serviço pelo lado da demanda, caso o acesso à banda larga seja ampliado. O interesse por essa questão deve ser partilhado não apenas pelos gestores de política pública, mas também pelas empresas de telefonia.

Por parte dos gestores, pelo fato de que a proposta de universalização do referido serviço deve seguir algum critério de priorização, sendo o dimensionamento do mercado um deles. No que diz respeito às empresas, pelo entendimento de que a lucratividade deve estar associada, a princípio, ao tamanho da demanda.

Page 200: EconomEtria ii - UNIASSELVI

192

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

O objetivo deste estudo é estimar o dimensionamento do mercado potencial de banda larga no Brasil. Tendo em vista o fato de que a banda larga produz utilidade direta para o usuário, além de servir como meio de acesso a outros serviços de grande interesse, usamos como medida para dimensionar o mercado de banda larga o acesso à internet. O dimensionamento é estimado com base no total predito de domicílios que atualmente poderiam acessar a internet por banda larga.

Além disso, estima-se o novo dimensionamento do mercado de banda larga caso exista um aumento de 10% na penetração média dos serviços nas principais regiões metropolitanas do país. Os números projetados indicam que o potencial estimado com a expansão do acesso − banda larga fixa ou de tecnologia de terceira e quarta gerações (3G e 4G) no celular − é de 45 milhões de domicílios, ou seja, um adicional de quase 6 milhões de domicílios em relação à situação atual. Num cenário de um aumento de 10% na penetração média dos serviços nas principais regiões metropolitanas do país, pode-se observar um novo mercado potencial total de 50,7 milhões de domicílios, ou seja, um aumento de mais de 10 milhões de domicílios em relação ao quadro atual.

Este estudo está estruturado, além desta introdução, em mais quatro seções. Na segunda seção, apresentamos uma breve revisão da literatura sobre o tema correlato da demanda por serviço de banda larga. Deve-se ter em mente que o nosso estudo, por motivos que ficarão claros ao longo da seção, não se refere estritamente à estimação da função de demanda. O uso do termo dimensionamento nos parece mais apropriado para os objetivos aqui propostos. Na terceira seção, apresentamos a metodologia usada de modo a explicitar os procedimentos que serão utilizados na quarta seção para a estimação do modelo de probabilidade de acesso e projeção de dimensionamento do mercado de banda larga. Os comentários finais são feitos na quinta seção.

FONTE: CARVALHO, A. Y.; MENDONÇA, M. J.; SILVA, J. J. Dimensionamento do mercado de banda larga no Brasil. Texto para discussão, Rio de Janeiro: Ipea, 2017. Disponível em: <http://www.ipea.gov.br/portal/images/stories/PDFs/TDs/td_2322.pdf>. Acesso em: 17 fev. 2019.

Page 201: EconomEtria ii - UNIASSELVI

193

Nesse tópico, você aprendeu que:

• O Modelo de Probabilidade Linear é uma forma simples de se calcular a probabilidade de um evento ocorrer, utilizando o método de mínimos quadrados ponderados.

• O modelo de probabilidade linear tem como função densidade de probabilidade a distribuição de Bernoulli, que admite apenas dois resultados para um experimento aleatório, sucesso ou fracasso.

• Apesar dos estimadores de MQO aplicados ao modelo de probabilidade linear serem não tendenciosos, eles não são eficientes, ou seja, não têm variância mínima. Por este motivo, a estimação por MQO não é válida dentro do contexto dos modelos de resposta qualitativa. A saída é estimar por Mínimos Quadrados Ponderados.

• O modelo Logit utiliza uma função de probabilidade acumulada logística, sua estimação se dá por máxima verossimilhança e representa o logaritmo das razões de chances de um evento ocorrer.

• O modelo Probit também é chamado de Normit porque utiliza a distribuição normal como base de estimação. Da mesma forma que o Logit, a técnica utilizada para estimação é por máxima verossimilhança.

RESUMO DO TÓPICO 2

Page 202: EconomEtria ii - UNIASSELVI

194

AUTOATIVIDADE

Para essa autoatividade, estamos interessados em estudar o resultado de uma eleição, por estado, que ocorreu nos EUA em 1976. Para tanto, os seguintes dados são usados:

Y = é a variável resultado, que assume valor igual a 1 caso o voto popular for a favor do candidato democrata (Jimmy Carter) e 0 se o voto for a favor do candidato republicano (Gerry Ford).Income = renda média em 1975. School = número mediano de anos de escolaridade completados por pessoas com 18 anos de idade ou mais. Urban = porcentagem da população que vive em área urbana.

A renda média dos estados em 1975 era de $ 13.963, o tempo médio de escolaridade era de 12,48 anos e 59,39% da população americana vivia nas áreas urbanas dos estados. Os resultados dos modelos de Probabilidade Linear, Logit e Probit são apresentados a seguir.

Com base nas estimações dos modelos, pede-se:

Variável dependente: Y---------------------------------------------------- MPL (MQO) Logit Probit ----------------------------------------------------const 24,37** 149,8** 87,30** (5,370) (3,216) (3,531)

income 0,0000 0,0000 0,0000 (0,4689) (0,2210) (0,1230)

school -1,970** -12,39** -7,200** (-5,106) (-3,117) (-3,422)

urban 0,00757** 0,05657** 0,03315** (3,304) (2,154) (2,222)----------------------------------------------------n 51 51 51R² 0,4909 0,4391 0,4442R² Ajustado 0,4583 0,3256 0,3307Count R² 76,5% 76,5%Critério Akaike 47,425 47,560 47,199Razão Verossimilhança 30,96[0,00] 31,32[0,00]----------------------------------------------------Estatísticas-t entre ( ) *, ** indicam significância num nível de 10 e 5 por cento

Para logit e probit, o R-quadrado é o pseudo-R-quadrado de McFadden

Page 203: EconomEtria ii - UNIASSELVI

195

1 Como você interpreta o sinal dos coeficientes estimados com relação ao aumento ou diminuição da probabilidade do candidato democrata Jimmy Carter receber votos?

2 Com base no modelo Logit, estime a probabilidade efetiva do candidato democrata ser eleito no estado de New York, sabendo que os valores das variáveis explicativas para aquele estado são:

Income = 15.288 School = 12,5 Urban = 88,4

3 Você acredita que estimar o modelo de probabilidade linear estimado por MQO é adequado? Caso sua resposta seja sim, diga o porquê. Caso seja não, diga o porquê e informe qual seria a alternativa para estimar este modelo.

4 Com base nos resultados apresentados, qual dos três modelos estimados você escolheria para dar sequência ao seu estudo e por quê?

5 Se você tivesse que traçar uma estratégia de marketing para o Jimmy Carter, com base nos resultados obtidos, visando ganhar as eleições nos EUA, em que você concentraria a sua campanha, na população de maior renda, com maior escolaridade ou nos moradores da área urbana? Comente.

Page 204: EconomEtria ii - UNIASSELVI

196

Page 205: EconomEtria ii - UNIASSELVI

197

TÓPICO 3

TÓPICOS ESPECIAIS EM ECONOMETRIA

UNIDADE 3

1 INTRODUÇÃO

Este é o último tópico de Econometria 2, foi uma longa e exaustiva jornada até aqui. Começamos na Econometria 1, na qual você foi apresentado às bases do conhecimento econométrico e aprendeu sobre a microeconometria. Na Econometria 2, você estudou a macroeconometria e alguns tópicos avançados de microeconometria.

Ao longo dos seus estudos, você pôde compreender que a econometria vai além de uma disciplina meramente quantitativa. Além de envolver a lógica dos cálculos, cuja base é a economia matemática, na maioria das vezes temos que analisar resultados com base no conhecimento de estatística que acumulamos nos nossos estudos e na nossa vivência profissional.

Foi necessário recorrer a esses conhecimentos para poder extrair inferências sobre as teorias econômicas testadas tanto em Econometria 1 quanto em Econometria 2. Aliás, fomos um pouco além da teoria econômica tradicional e trouxemos para a nossa análise questões de ordem política, econômica e social, assuntos presentes no nosso dia a dia.

A ideia até agora foi de lançar um olhar prático sobre a econometria, mostrando como utilizar essa fantástica ferramenta. Agora, nesse tópico, exploraremos alguns dos aspectos mais complexos da econometria. Vamos falar um pouco sobre o que há de novo na econometria, ou seja, os últimos avanços em termos de técnicas de estimação, a grande fronteira ou a fase atual do desenvolvimento da técnica econométrica.

Não devemos nos aprofundar nesse tópico, mas sim ter uma visão geral do mundo econométrico ainda não explorado por nós e que irá requerer a nossa atenção nos próximos anos. Para isso, começaremos falando sobre a estimação por máxima verossimilhança, técnica essa que só conseguimos empregar com desenvoltura por causa dos avanços computacionais e que utilizamos diversas vezes durante os estudos de Econometria 2.

Na sequência, falaremos sobre a econometria bayesiana, que sempre esteve à margem da econometria e que recentemente vem rivalizando com as técnicas tradicionais, justamente por conta dos avanços tecnológicos, produzindo outro tipo de resposta para as grandes questões econômicas.

Page 206: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

198

Finalmente, no último item desse livro, veremos uma breve introdução sobre o big data, com ênfase sobre como nós, economistas, temos muito a ganhar em termos profissionais em relação a esse tema que está na vanguarda não apenas da econometria, mas de todas as áreas do conhecimento humano.

2 A ESTIMAÇÃO POR MÁXIMA VEROSSIMILHANÇA

A estimação por máxima verossimilhança é uma técnica econométrica assintótica. Dito de outra forma, em estimações em que o modelo clássico de regressão linear não atinge os objetivos de gerar estimadores, consistentes, não tendenciosos e com variância minima, empregamos a técnica de estimação por máxima verossimilhança, que é usada tanto em modelos econométricos lineares quanto em modelos não lineares.

Segundo Sartoris (2013), se conhecermos a distribuição de probabilidade de uma população qualquer de dados, os parâmetros estimados a partir de uma amostra aleatória maximizam a probabilidade de que esses valores obtidos seguem a distribuição da população em questão.

Para entender como funciona essa técnica, seguindo de Greene (2012), considere uma função densidade de probabilidade para uma variável aleatória, Y, condicionada a um conjunto de parâmetros, θ, representada por f(y|θ). Suponha agora que a partir dessa função, consigamos gerar um conjunto de dados independente e identicamente distribuídos de tal forma que:

f(y1, y2, ..., yn|θ) = Πi=1 f(yi|θ) = L(θ|y) 3.1

A equação 3.1 é conhecida como função de verossimilhança e é definida como uma função de um vetor de parâmetros desconhecidos, θ, onde y é usado para indicar o conjunto de dados coletados na amostra.

Para um modelo de apenas duas variáveis, com Yi = β1 + β2Xi + ui, em que a média e a variância são escritas como f(Y1, Y2, ..., Yn|β1 + β2Xi,σ2), onde σ2 é a variância e, se considerarmos a função de densidade de distribuição conjunta, podemos escrever a função de densidade de probabilidade como:

( )( )21 2

21 21

2

i iY X

if Y eβ βσ

σ π

− −−

= 3.2

Substituindo 3.2 na função f(Y1, Y2, ..., Yn|β1 + β2Xi,σ2), obtemos a função de verossimilhança para o caso de duas variáveis como:

( )( )

( )21 22

1 2 21 2

1, , 2

i iY X

nnL e

β βσβ β σ

σ π

− −− ∑

= 3.3

n

Page 207: EconomEtria ii - UNIASSELVI

TÓPICO 3 | TÓPICOS ESPECIAIS EM ECONOMETRIA

199

A partir de 3.3, devemos estimar os parâmetros βi e σ2, de forma a maximizar a probabilidade de se prever os valores de Yi. Dito de outra forma, derivamos a função de verossimilhança em relação aos parâmetros a fim de maximizar as chances de se obter uma distribuição semelhante a da população, com base em uma amostra.

O formato usual da função de verossimilhança é obtido aplicando logaritmos à equação 3.3, para o caso com duas variáveis,

22

21 1

1 1ln 2 ln2 2 2

n ni

ii i i

unL ln π σσ= =

= − − −∑ ∑ 3.4

Onde ui2 = (Yi – β1 – β2Xi)2 e para o caso geral, InL(θ|y) = ∑i=1 Inf(yi|θ).

Segundo Gujarati e Porter (2011, p. 212),

[…] sob a hipótese de que ui, o termo de erro da população, segue a distribuição normal com média zero e variância constante σ2, os estimadores de máxima verossimilhança (MV) e os de mínimos quadrados ordinários (MQO) dos coeficientes de regressão do modelo de duas variáveis são idênticos. Essa igualdade estende-se aos modelos com qualquer número de variáveis.

Essa igualdade, segundo Pindyck e Rubinfeld (2004), não se observa no estimador da variância, σ2, que permanece consistente, porém tendencioso. Todavia, no geral, os estimadores de máxima verossimilhança são consistentes e assintoticamente eficientes.

No Gretl, selecionando o menu “Modelo” e depois escolhendo “Máxima verossimilhança”, você deverá informar na janela de especificação do modelo a equação do log de verossimilhança, o que para um usuário iniciante pode ser um pouco complicado. O ideal é usar o Console Gretl e digitar as linhas de comando de acordo com o que se pretende fazer com a estimação.

O capítulo 23 do Gretl User’s Guide, que você acessa através do menu “Ajuda”, depois “Guia do usuário”, descreve todas as funcionalidades da estimação por máxima verossimilhança e fornece alguns exemplos, além de detalhes técnicos.

n

3 ECONOMETRIA BAYESIANA

A estatística pode ser dividida em duas diferentes vertentes. Temos a estatística clássica, que serviu de base para tudo o que vimos até agora e a estatística bayesiana, que até bem pouco tempo atrás tinha pouca aplicação prática, vivendo à margem da econometria tradicional, mas que vem ganhando adeptos e uma quantidade enorme de pesquisas vem sendo desenvolvida nos últimos tempos, tendo como base essa técnica de estimação.

Page 208: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

200

O motivo que tem levado muitos econometristas a aderirem à econometria bayesiana é o surgimento de novos softwares econométricos ou o lançamento de novas versões de softwares tradicionais, que agora permitem não apenas a manipulação dos modelos, mas também o emprego de algoritmos avançados.

Na análise clássica, quando você roda uma regressão, o parâmetro β é uma estimativa pontual, baseada em uma amostra da população, obtida de forma aleatória e se for um estimador de máxima verossimilhança, ele maximiza a função 3.3. Se tirarmos diversas amostras a partir dessa mesma população, obteremos vários estimadores pontuais para o parâmetro e se plotarmos um gráfico de uma função de densidade de probabilidade, sabendo qual o valor do verdadeiro β na população, esses valores estimados se distribuirão em torno de uma média, que deverá convergir para o valor do parâmetro populacional, como vimos em Econometria 1.

Obviamente, se as hipóteses do modelo clássico se mantiverem e os resíduos tiverem distribuição normal, o estimador de máxima verossimilhança é o estimado de mínimos quadrados ordinários.

Por outro lado, do ponto de vista da análise bayesiana, não obtemos um estimador pontual para o parâmetro β, mas sim uma função de densidade para β, chamada de função de densidade posterior (KENNEDY, 2009). A grande diferença para a estatística e a econometria clássica é que, na abordagem bayesiana, a função de densidade posterior não se relaciona ao β porque não é uma distribuição amostral, mas se relaciona ao β da população.

A interpretação do parâmetro β obtido por essa abordagem também é diferente da tradicional, porque tem um sentido subjetivo de probabilidade. Kennedy (2009, p. 212) apresenta a técnica bayesiana em três etapas:

1. Previamente à análise dos dados uma distribuição anterior é formalizada, refletindo as crenças do pesquisador sobre os parâmetros em questão.

2. Emprega-se o teorema de Bayes para combinar a distribuição anterior com os dados. O resultado dessa combinação é a distribuição posterior.

3. A última etapa, que é opcional, consiste em combinar a distribuição posterior com uma função de perda esperada, ou uma função de utilidade. A ideia é minimizar a perda esperada ou maximizar a utilidade esperada da estimativa dos parâmetros.

A econometria bayesiana tem início no trabalho de Zellner (1971), mas Greene (2012) e Kennedy (2009) ressaltam que esse ramo da econometria sempre esteve à margem e que só recentemente, com os avanços computacionais, é que começou a ser explorado com mais ênfase.

A chave para entender esse campo de estudos é o teorema de Bayes, enunciado por Sartoris (2013, s.p.) como: “Se existem as probabilidades condicionais de um evento B, dados todos os eventos do tipo Ai(i = 1,2,..., n), e queremos encontrar a probabilidade condicional de certo evento Aj, dado B, essa será dada por:”

Page 209: EconomEtria ii - UNIASSELVI

TÓPICO 3 | TÓPICOS ESPECIAIS EM ECONOMETRIA

201

( ) ( ) ( )( ) ( )1

||

|j j

j nj jj

P B A P AP A B

P B A P A=

×=

×∑ 3.5

Greene (2012) altera o teorema para uma linguagem mais conhecida por nós, escrevendo 3.5 como:

( ) ( ) ( )( )

Dados|Parâmetros ParâmetrosParâmetros|Dados

DadosP P

PP

×= 3.6

Em 3.6 os dados são vistos como constantes cuja distribuição não envolve os parâmetros de interesse. O lado esquerdo é a distribuição posterior, ou seja, a probabilidade de se encontrar os parâmetros após se observar os dados. Do lado direito temos a distribuição anterior, a probabilidade de se encontrar os parâmetros antes de se observar os dados.

Essa expressão em 3.6 normalmente é escrita como:

Prob(Parâmetros|Dados) α Prob(Dados|Parâmetros) x Prob(Parâmetros) 3.7

A expressão 3.7 é lida como “o posterior é proporcional à probabilidade vezes o anterior”.

Para se aprofundar mais no tema, leia o capítulo 16 da obra intitulada Econometric analysis: International edition de Greene (2012) e o capítulo 14 da obra intitulada Manual de econometria de Kennedy (2009). Para estudantes mais avançados, sugiro uma visita ao site de Working Papers do Banco Central do Brasil, disponível em <https://www.bcb.gov.br/pec/wps/port/default.asp?idiom=I&id=workingpapers>. Nesse site procure por artigos que utilizam os modelos DSGE (Modelo Dinâmico de Equilíbrio Geral Estocástico). Há muito material sobre o tema e esses modelos DSGE são os que grande parte dos Bancos Centrais ao redor do mundo estão utilizando nas suas análises de política macroeconômica e são baseados

4 BIG DATA ANALYTICS

O que é o Big Data e o que isso tem a ver com a econometria? Sabemos que econometria é uma ferramenta, dentro da ciência econômica, que analisa dados e extrai informações de bancos de dados. O Big Data, por sua vez, é definido no relatório de 2011 do McKinsey Global Institute, “Big data: The next frontier for innovation, competition, and productivity” (MCKINSEY GLOBAL INSTITUT, 2011, s.p.), como sendo um conjunto de dados cujo tamanho está além da capacidade que os tradicionais softwares de banco de dados têm para capturar, armazenar, gerenciar e analisar.

Page 210: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

202

Segundo a pesquisa Tech Trends 2017, da empresa de consultoria Deloitte, cerca de 90% dos dados existentes no mundo foram gerados nos últimos cinco anos. A cada ano que passa esse volume de dados dobra de tamanho. Nesse ritmo, a expectativa é que em 2020 tenhamos cerca de 44 trilhões de gigabytes, o que, para se ter noção, é mais do que a quantidade de estrelas que existe no céu.

O grande problema é que cerca de 90% desses dados não são estruturados e aqui nos referimos a e-mails, mensagens eletrônicas, check-ins nos lugares que você frequenta, os comentários e compartilhamentos nas rede sociais, os destinos das suas viagens registradas em aplicativos que o ajudam a dirigir nas ruas, entre outros.

Essas informações são capturadas a partir da sua rotina diária de acesso à internet, na sua movimentação pelas ruas diariamente com o seu smartphone, nos seus pedidos de comida por aplicativos ou local de destino escolhido no aplicativo de transporte, nas músicas que você ouve pela internet e os filmes que assiste por streaming, entre muitas outras fontes de informação.

Dentro do Big Data, há uma área específica na qual os econometristas se encaixam como uma luva. É a área de mineração de dados. As empresas estão requisitando cada vez mais profissionais que sejam capazes de analisar esse banco enorme de informações geradas diariamente. Hoje em dia, os profissionais que têm essa competência desenvolvida são chamados de analistas de dados ou cientistas de dados. O site Love Mondeys informa que o salário médio de um cientista de dados é de R$ 9.059,00 mensais, podendo chegar até a R$ 30.000,00, conforme dados do site <https://www.lovemondays.com.br/salarios/cargo/salario-cientista-de-dados>.

Segundo Castro e Ferrari (2016), junto com a quantidade de informação gerada, surgem oportunidades acadêmicas e comerciais em proporção semelhante em termos de variedade, velocidade e volume.

Há espaço suficiente para um crescimento ainda maior dessa área, como podemos ver na tabela a seguir. Hoje, cerca de 49% dos usuários da internet no mundo estão na Ásia, enquanto a Oceania e Austrália esse percentual não chega a 1%. Por outro lado, o país com a população mais conectada é os Estados Unidos, com 95% da população conectada na internet. Por outro lado, o continente africano foi o que teve o maior crescimento de usuários desde 2000, cerca de 10.199%.

Page 211: EconomEtria ii - UNIASSELVI

TÓPICO 3 | TÓPICOS ESPECIAIS EM ECONOMETRIA

203

TABELA 9 – ESTATÍSTICAS MUNDIAL DE POPULAÇÃO E USODA INTERNET – JUNHO DE 2018

FONTE: <https://internetworldstats.com/stats.htm>. Acesso em: 22 fev. 2019. Obs.: (a) mil pessoas

Região Mundial

População estimada em

2018 (a)

% da população mundial

Usuários da internet em

junho/2018 (a)

Penetração % da

população

Crescimento 2000-2018

Usuários da

internet %

África 1.287.914 16,90% 464.923 36,10% 10.199% 11,00%

Ásia 4.207.588 55,10% 2.062.197 49,00% 1.704% 49,00%

Europa 827.650 10,80% 705.064 85,20% 570% 16,80%

América Latina/ Caribe

652.047 8,50% 438.248 67,20% 2.325% 10,40%

Oriente Médio 254.438 3,30% 164.037 64,50% 4.894% 3,90%

América do Norte 363.844 4,80% 345.660 95,00% 219% 8,20%

Oceania / Austrália 41.273 0,60% 28.439 68,90% 273% 0,70%

Total Mundial 7.634.758 100,00% 4.208.571 55,10% 1.066% 100,0%

Isso mostra que o mercado de internet ainda está longe de se esgotar e quanto mais gente conectada à internet, quer seja por smartphone, smart TV, computador, tablet etc., mais dados serão gerados diariamente e mais informação precisará ser trabalhada para ser melhor aproveitada.

O problema agora não é mais a falta de informação, mas sim saber o que fazer com todos esses gigabytes acumulados em bancos de dados. Hoje a grande preocupação é entender como gerenciar, armazenar, processar e extrair conhecimento útil a partir do que já está armazenado e do que ainda será armazenado nos próximos anos.

A saída está na mineração de dados, que é “[...] um processo sistemático, interativo e iterativo, de preparação e extração de conhecimentos a partir de grandes bases de dados” (CASTRO; FERRARI, 2016). É como na mineração de pedras preciosas, em que você extrai a pedra valiosa a partir de uma pilha composta por um amontoado de outros minerais que não são do seu interesse. Aquilo que você quer é algo bem específico e no seu monte de pedras, tem de tudo, inclusive o que você procura.

Diferentemente da mineração tradicional, aqui não usamos equipamentos como pás ou picaretas, mas sim algoritmos, em um procedimento sistemático com o objetivo específico de se extrair conhecimento a partir do caos. Esse processo de extração, segundo Castro e Ferrari (2016), ocorre em quatro etapas:

Page 212: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

204

• Coleta organizada de dados (base de dados).• Remoção de dados inconsistentes, combinação a partir de múltiplas fontes,

escolha dos dados relevantes à análise e transformação dos dados em formatos apropriados para mineração.

• Mineração ou aplicação do algoritmo para extrair o conhecimento a partir dos dados pré-processados (aqui entra a parte do tratamento estatístico, emprego de técnicas de suavização, segmentação, agrupamento, predição, entre outros).

• Validação ou avaliação dos resultados da mineração objetivando identificar conhecimentos verdadeiramente úteis e não triviais.

A Figura 8 mostra a multidisciplinaridade da mineração de dados. Se você recordar da definição de econometria, perceberá que a estatística, a matemática e os sistemas de informação fazem parte daquele conceito apresentado em Econometria 1. Além disso, o banco de dados é intrínseco a nossa disciplina, além da visualização.

Uma disciplina que merece destaque é a inteligência artificial. Precisamente falando, quando você posta fotos no Facebook, por exemplo, é possível que ele reconheça algumas pessoas que estão no seu arquivo de imagem e lhe ofereça a oportunidade de marcar essa pessoa naquela sua postagem. Esse procedimento é feito com base em algoritmos e, segundo Mullainathan e Spiess (2017), o resultado obtido é semelhante ao que obtemos ao empregar a econometria para prever o comportamento de determinada variável econômica.

Podemos pensar na pessoa y, como sendo aquele seu amigo que aparece na foto que você irá compartilhar e x os seus atributos físicos, caracterizadas nos pixels da imagem. Assim como é possível estimar y = f(x) na econometria, também é possível prever com alguma precisão o seu amigo y, com base nos pixels x da foto. Isso se faz com aprendizado de máquina, o algoritmo vai aprendendo com os seus erros e acertos e se aperfeiçoando.

FIGURA 8 – MULTIDISCIPLINARIDADE NA MINERAÇÃO DE DADOS

FONTE: Castro e Ferrari (2016, s.p.)

Mineraçãode dados

Bancode dados

Inteligênciaartificial

Sistemas deinformação

Engenharia

MatemáticaVisualização

Estatística

Page 213: EconomEtria ii - UNIASSELVI

TÓPICO 3 | TÓPICOS ESPECIAIS EM ECONOMETRIA

205

Essa área do conhecimento está em plena expansão e já temos trabalhos bons sobre esse assunto. Um exemplo é Athey (2018), que analisa as contribuições recentes para a economia relativas à machine learning. Nesse estudo a autora avalia que haverá grandes mudanças na construção dos trabalhos empíricos na área econômica, que muitas dessas mudanças já estão acontecendo e que a tendência é obtermos ganhos em termos de qualidade e certeza nas projeções econômicas.

Chakraborty e Joseph (2017) apresentam uma análise de machine learning no contexto de bancos centrais e análise de políticas econômicas. Os autores trazem um conceito interessante sobre machine learning, dizendo que não existe um modelo único e que um machine learning system consiste em um conjunto de componentes formado por um problema, uma fonte de dados, um modelo, um algoritmo de otimização e a fase de validação e teste. No trabalho são apresentados diversos modelos econométricos, a sua aplicabilidade em função do tamanho da base de dados, as vantagens e desvantagens e alguns estudos de casos sobre a aplicação dessas técnicas.

No Brasil, universidades como UNB, USP, UFRJ, UFPR, entre outras têm produzido TCCs em nível de graduação, mestrado, doutorado e pós-doutorado nas áreas de economia e engenharia, utilizando o aprendizado de máquinas como base técnica para esses trabalhos.

O fato é que ainda estamos no início do processo de aprendizado sobre como usar essas novas ferramentas que vêm se desenvolvendo em velocidade muito grande em comparação a outros tempos. Cada dia que passa o conhecimento no mundo se acumula em bancos de dados pouco explorados e o que precisamos é de pessoas com as habilidades e competências desenvolvidas o suficiente para saber o que extrair, como extrair e como aproveitar tanto conhecimento gerado e acumulado.

Page 214: EconomEtria ii - UNIASSELVI

UNIDADE 3 | MODELOS PAINEL, MODELOS DE REGRESSÃO DE RESPOSTA QUALITATIVA E TÓPICOS ESPECIAIS EM ECONOMETRIA

206

LEITURA COMPLEMENTAR

BIG DATA, MACHINE LEARNING E ECONOMETRIA

Arthur Bragança | 26 de outubro de 2017

Ao permitir a customização de produtos e a otimização de processos internos, o Big Data tem potencial para revolucionar vários negócios. Mas, para isso ocorrer, é preciso que as empresas empreguem ferramentas estatísticas que as permitam extrair insights do número crescente de informações disponíveis sobre transações, processos internos e indivíduos.

Entretanto, nos últimos anos, inúmeras empresas se concentraram mais no desenvolvimento de infraestrutura de TI capaz de lidar com o Big Data do que na incorporação dessas ferramentas estatísticas. Recentemente, à medida que a infraestrutura de TI se consolida, mais e mais empresas têm se perguntado quais ferramentas estatísticas podem ser utilizadas para explorar o Big Data.

Métodos de machine learning (aprendizado de máquina) têm se popularizado entre empresas interessadas em extrair insights de suas informações sobre transações, processos internos e indivíduos. Esses métodos têm como objetivo construir previsões precisas a partir do uso de algoritmos inteligentes que aprendem automaticamente como combinar informações para realizar uma previsão. Devido a sua capacidade de aprender com os próprios dados, os métodos de machine learning são comumente denominados de métodos de inteligência artificial.

Existem diversos usos possíveis desses métodos dentro das empresas. Por exemplo, instituições financeiras podem utilizar machine learning para melhorar suas previsões de risco de default dos seus clientes e assim melhorar suas decisões de concessão de crédito, supermercados para melhorar suas previsões de demanda e dessa maneira melhorar o gerenciamento dos seus estoques e corretoras de imóveis para prever preços de imóveis e com isso reduzir o tempo que imóveis demoram para serem vendidos.

Para entender como o machine learning funciona, considere o problema de uma instituição financeira que deseja prever a probabilidade de um cliente não pagar um empréstimo a partir de características como renda, profissão, número de filhos, local de residência, outros financiamentos etc. Para construir essa previsão, é necessário definir quais características dos clientes influenciam o risco de default e como elas se combinam para exercer essa influência. Essa é uma tarefa difícil, uma vez que é possível construir inúmeros modelos relacionando risco de default com as características dos clientes.

Os métodos de machine learning resolvem esse problema utilizando rotinas de seleção do melhor modelo de acordo com um critério determinado a priori. Isso torna a tarefa de modelagem muito mais flexível porque permite os desenvolvedores especificarem apenas o critério de escolha do modelo (e não o modelo completo).

Page 215: EconomEtria ii - UNIASSELVI

207

Entretanto, com a popularização do machine learning, torna-se cada vez mais importante entender as limitações desses métodos e os cuidados que devem ser observados no seu uso. Em artigo recente na Harvard Business Review, os economistas Michael Luca e Sendhil Mullanaithan e o cientista da computação Jon Kleinberg discutem os cuidados que os executivos devem tomar ao utilizar esses métodos. Eles enfatizam que executivos devem lembrar que esses métodos produzem previsões e recomendações que desconsideram outros critérios de desempenho não previamente especificados na construção do modelo. Isso significa que um modelo programado para minimizar o risco de default desconsiderará completamente que clientes que não recebem crédito podem decidir fechar sua conta na instituição financeira ou que um modelo programado para recomendar que anúncios on-line gerem mais interesse desconsidera totalmente se esse anúncio gera mais ou menos interesse no longo prazo.

Além disso, os autores enfatizam que métodos de machine learning são tipicamente pouco informativos para previsões de longo prazo em que o ambiente (preços, competição, preferências etc.) muda muito. Como enfatiza a economista Susan Athey em entrevista recente, essa dificuldade se conecta com o fato desses métodos serem desenvolvidos para prever o futuro em condições similares às observadas no passado e não quando as condições mudam.

Para entender isso, imagine que uma instituição financeira quer prever como uma política corporativa, uma mudança nos incentivos de pagamento de empréstimos, por exemplo, influencia o default. Como a mudança de política mudará toda a estrutura de correlações dos dados, os padrões passados deixam de ser informativos sobre o futuro e o machine learning se torna inadequado para realizar essas previsões.

Nesse caso, como destaca Sendhil Mullanaithan em artigo no Journal of Economic Perspectives, é preciso utilizar os métodos econométricos para construir previsões. Diferentemente dos métodos de machine learning, esses métodos não têm como objetivo prever e sim estimar como mudanças no ambiente econômico influenciam o comportamento de indivíduos e empresas.

Antes de escolher que ferramenta estatística utilizar para explorar os dados da sua empresa, os executivos devem ter clareza dos tipos de questões que querem responder. Métodos de machine learning são extremamente úteis para realizar previsões de curto prazo e em contextos que as políticas corporativas não mudam e/ou têm pouco espaço para influenciar a dinâmica dos dados. Entretanto, para construir previsões de longo prazo e/ou em contextos que as políticas corporativas importam bastante, é preciso combinar machine learning com métodos econométricos capazes de decifrar como mudanças nas políticas corporativas e/ou no cenário econômico influenciam o comportamento dos indivíduos e firmas. Com expertise único em econometria e machine learning, a TRACES é capaz de identificar o melhor tipo de modelagem para construir previsões em diferentes contextos e construir soluções customizadas que combinam diferentes métodos para oferecer as respostas que as empresas realmente necessitam.

FONTE: BRAGANÇA, Arthur. Big Data, Machine Learning e Econometria. Econometric Traces, 2017. Disponível em: <http://www.econometrictraces.com/big-data-machine-learning-e-econometria/>. Acesso em: 22 fev. 2019.

Page 216: EconomEtria ii - UNIASSELVI

208

Nesse tópico, você aprendeu que:

• Quando o modelo clássico de regressão linear não é capaz de gerar estimadores consistentes, não tendenciosos e com variância mínima, empregamos a técnica de estimação por máxima verossimilhança, que é usada tanto em modelos econométricos lineares quanto em modelos não lineares.

• Para estimar por máxima verossimilhança, nós derivamos a função de verossimilhança em relação aos parâmetros a fim de maximizar as chances de se obter uma distribuição semelhante à da população, com base em uma amostra.

• Na análise de regressão clássica, obtemos uma estimativa pontual dos parâmetros, baseada em uma amostra da população, obtida de forma aleatória. Na econometria bayesiana, não obtemos um estimador pontual para os parâmetros, mas sim a chamada função de densidade posterior.

• Big Data é definido como sendo um conjunto de dados cujo tamanho está além da capacidade que os tradicionais softwares de banco de dados têm para capturar, armazenar, gerenciar e analisar.

• Os dados aos quais nos referimos são oriundos de e-mails, mensagens eletrônicas, check-ins nos lugares que você frequenta, os comentários e compartilhamentos nas rede sociais, os destinos das suas viagens registradas em aplicativos que o ajudam a dirigir nas ruas, entre outros.

• Dentro do Big Data, a área de mineração de dados é a que melhor se encaixa no perfil dos econometristas.

• Estudos recentes mostram as contribuições recentes do aprendizado de máquinas para a análise econômica. Essa deve ser a grande fronteira a ser explorada pelos economistas nos próximos anos.

RESUMO DO TÓPICO 3

Page 217: EconomEtria ii - UNIASSELVI

209

AUTOATIVIDADE

Em relação ao conteúdo desenvolvido no Tópico 3, responda às questões a seguir.

1 Sobre a estimação por máxima verossimilhança, classifique as sentenças a seguir em V para verdadeira e F para as falsas.

a) ( ) O método de máxima verossimilhança é uma técnica desenvolvida exclusivamente para se estimar modelos econométricos não lineares.

b) ( ) Se conhecermos a distribuição de probabilidade de uma população qualquer de dados, os parâmetros estimados a partir de uma amostra aleatória maximizam a probabilidade de que esses valores obtidos seguem a distribuição da população em questão.

c) ( ) Os coeficientes gerados pelo método de MQO e máxima verossimilhança são semelhantes quando ui~N(0, σ2).

d) ( ) Em amostras grandes, os estimadores de máxima verossimilhança são tendenciosos e inconsistentes, motivo pelo qual empregamos o método de mínimos quadrados ordinários.

2 A estatística é dividida em duas grandes vertentes. Indique quais são elas e qual a principal diferença entre essas vertentes.

3 Cite as etapas da técnica bayesiana.

4 Uma das formas de expresser o teorema de Bayes do ponto de vista da econometria bayesiana é fazendo:

Prob(Parâmetros|Dados) α Prob(Dados|Parâmetros) x Prob(Parâmetros)

Explique o que significa essa expressão matemática.

5 Defina big data e mineração de dados.

6 Na mineração de dados, há uma multidisciplinaridade, dentro da qual a econometria pode ser facilmente inserida. Cite as disciplinas que compõem a mineração de dados.

Page 218: EconomEtria ii - UNIASSELVI

210

Page 219: EconomEtria ii - UNIASSELVI

211

REFERÊNCIASADKINS, L. C. Monte Carlo experiments using Gretl: a review with examples. 2010. Disponível em: http://www.learneconometrics.com/pdf/MCgretl.pdf. Acesso em: 11 fev. 2019.

ALT, F. F. Distributed lags. Econometrica, v. 10, p. 113–128, 1942.

ATHEY, Susan. The impact of machine learning on economics. NBER, 2018. Disponível em: <https://www.nber.org/chapters/c14009>. Acesso em: 22 fev. 2019.

BARTLETT, M. S. On the theoretical specification and sampling properties of autocorrelated time-series. Supplement to the Journal of the Royal Statistical Society, v. 8, n. 1, 1946, pp. 27–41.

BOX, G. E. P.; PIERCE, D. A. Distribution of residual autocorrelations in autoregressive-integrated moving average time series models. Journal of the American Statistical Association, 1970.

BOX, G. E.P.; JENKINS, G. M.; REINSEL, G. C. Time series analysis: forecasting and control. 4. ed. New Jersey: Wiley, 2008.

BOX, G. P. E.; JENKINS, G. M. Time series analysis: forecasting and control. Holden Day, São Francisco: Holden, 1970.

BUENO, R. D. L. D. S. Econometria de séries temporais. São Paulo: Cengage Learning, 2008.

CAMPBELL, J. Y.; PERRON, P. Pitfalls and opportunities: what macroeconomists should know about unit roots. NBER Macroeconomics Annual, v. 6, 1991, pp. 141-201.

CASTRO, L. N.; FERRARI, D. G. Introdução à mineração de dados: conceitos básicos, algoritmos e aplicações. 1. ed. São Paulo: Saraiva, 2016. E-book.

CHAKRABORTY, C.; JOSEPH, A. Machine learning at central banks. Staff Working Paper No. 674. Bank of England, 2017. Disponível em: <https://www.bankofengland.co.uk/working-paper/2017/machine-learning-at-central-banks>. Acesso em: 22 fev. 2019.

COTTRELL, A.; LUCCHETTI, R. Gretl user’s guide: Gnu Regression, Econometrics and Time-series Library, 2018, 394 p.

DAVIDSON, R.; MACKINNON, J. G. Econometric theory and methods. New York: Oxford University Press, 2003.

Page 220: EconomEtria ii - UNIASSELVI

212

DELOITTE. Tech trends 2017, the kinetic enterprise. Deloitte University Press, 2017. Disponível em: <https://www2.deloitte.com/content/dam/insights/us/articles/3468_TechTrends2017/DUP_TechTrends2017.pdf>. Acesso em: 22 fev. 2019.

DICKEY, D. A.; FULLER, W. A. Distribution of the estimators for autoregressive time series with a unit root. Journal of the American Statistical Association, v. 74, n. 366a, 1979, p. 427– 431.

DOORNIK, J. A.; HANSEN, H. An omnibus test for univariate and multivariate normality. Working paper, Nuffield College, Oxford, 1994.

EFRON, B. Bootstrap methods: another look at the Jackknife. Source: The Annals of Statistics, v. 7, n. 1, (Jan., 1979), pp. 1-26.

EFRON, B.; TIBISHIRANI, R. J. An introduction to the bootstrap. New York: John

ENDERS, W. Applied econometric time series. 2. ed. New York: Wiley, 2004.

ENGLE, R.F.; GRANGER, C.W. Co-integration and error correction: representation, estimation, and testing. Econometrica, v. 55, n. 2, 1987, p. 251– 276.

FERREIRA, P. G. C. Processos não estacionários. In: FERREIRA, P. G. C. (Org.). Análise de séries temporais em R: curso introdutório [recurso eletrônico]. Rio de Janeiro: Elsevier, 2018. Cap. 3 – Edição do Kindle.

GRANGER, C. W. J. Investigating causal relations by econometric models and cross-spectral methods. Econometrica, v. 37, n. 3, p. 424–438, 1969.

GRANGER, C. W. J.; NEWBOLD, P. Forecasting economic time series. New York: Academic Press, 1977. 333p.

GREENE, W. H. Econometric analysis: international edition. 7. ed. London: Pearson Education Limited, 2012. 1241 p.

GRUNFELD, Y. The determinants of corporate investment. Ph.D. thesis, Departmentof Economics, University of Chicago, 1958.

GUJARATI, D. N.; PORTER, D. C. Econometria básica [recurso eletrônico]. 5. ed. Porto Alegre: AMGH, 2011. 924 p. Tradução de: Denise Durante, Mônica Rosemberg, Maria Lúcia G. L. Rosa. E-book.

HAUSMAN, J. A. Specification tests in econometrics. Econometrica, v. 46, p. 1.251-1.271, nov. 1978.

HILL, R. C.; GRIFFITHS, W. E.; JUDGE, G. G. Econometria. 3. ed. São Paulo: Saraiva, 2010. 471 p.

HODRICK, R.; PRESCOTT, E. Postwar business cycles. Jornal of Money, Credit and Banking, 1997.

Page 221: EconomEtria ii - UNIASSELVI

213

JUSELIUS, K. The Cointegrated VAR Model: Methodology and Applications. New York: Oxford University Press, 2006.

KENNEDY, P. Manual de econometria. 6. ed. Rio de Janeiro: Elsebier, 2009.

KLEIBER, C.; ZEILEIS, A. The grunfeld data at 50. German Economic Review,11(4), 404–417. 2010. Disponível em: <http://statmath.wu.ac.at/~zeileis/papers/Kleiber+Zeileis-2010.pdf>. Acesso em: 22 fev. 2019.

KOYCK, L. M. Distributed lags and investment analysis. Amsterdam: North Holland Publishing Company, 1954.

LÜTKEPOHL, H. New introduction to multiple time series analysis. v. 3. Springer Science & Business Media, 2005.

MADDALA, G. S. Introdução à econometria. 3. ed. Rio de Janeiro: LTC, 2003. 345 p.

MAKIW, N. G. Macroeconomia. 6. ed. Rio de Janeiro: LTC: 2008.

MCKINSEY GLOBAL INSTITUTE. Big data: the next frontier for innovation, competition, and productivity. 2011. Disponível em: <https://www.mckinsey.com/~/media/McKinsey/Business Functions/McKinsey Digital/Our Insights/Big data The next frontier for innovation/MGI_big_data_full_report.ashx>. Acesso em: 22 fev. 2019.

MEYER, B. D.; VISCUSI, W. K.; DURBIN, D. L. Workers' compensation and injury duration: evidence from a natural experiment. American Economic Review 85, 1995. 322-340.

MORETTIN, P. A. Econometria financeira: um curso em séries temporais financeiras. 3. ed. São Paulo: Blucher, 2016.

MULLAINATHAN, S.; SPIESS, J. Machine learning: an applied econometric approach. Journal of Economic Perspectives, v. 31, n. 2, 2017. pp. 87-106.

PINDYCK, R. S.; RUBINFELD, D. L. Econometria: modelos e previsões. Rio de Janeiro: Elsevier, 2004.

SARTORIS, A. Estatística e introdução à econometria. 2. ed. São Paulo: Saraiva, 2013. Edição do Kindle.

SIMS, C. A. Macroeconomics and reality. Econometrica, v. 48, n. 1, p. 1-48, 1980.Wiley & Sons, 1993. p. 642.

WOOLDRIDGE, Jeffrey M. Introdução à econometria: uma abordagem moderna. 6. ed. São Paulo: Cengage Learning, 2016. 848 p.

ZELLNER. A. An introduction to Bayesian inference in econometrics. Nova York: John Wiley, 1971.