• Nenhum resultado encontrado

http://tede.mackenzie.br/jspui/bitstream/tede/3297/5/MAUR%C3%8DCIO%20MESQUITA%20BORTOLUZZO

N/A
N/A
Protected

Academic year: 2021

Share "http://tede.mackenzie.br/jspui/bitstream/tede/3297/5/MAUR%C3%8DCIO%20MESQUITA%20BORTOLUZZO"

Copied!
96
0
0

Texto

(1)Universidade Presbiteriana Mackenzie Centro De Ciências Sociais e Aplicadas Programa de Pós-Graduação em Administração de Empresas. UMA INVESTIGAÇÃO SOBRE MODELOS DE PREVISÃO DA INFLAÇÃO BRASILEIRA. MAURÍCIO MESQUITA BORTOLUZZO. SÃO PAULO 2017.

(2)

(3) MAURÍCIO MESQUITA BORTOLUZZO. UMA INVESTIGAÇÃO SOBRE MODELOS DE PREVISÃO DA INFLAÇÃO BRASILEIRA. Tese apresentada ao Programa de PósGraduação em Administração de Empresas da Universidade Presbiteriana Mackenzie como requisito parcial para obtenção do título de Doutor em Administração de Empresas.. Orientador: Prof. Dr. Leonardo Fernando Cruz Basso Coorientador: Prof. Dr. Emerson Fernandes Marçal. SÃO PAULO 2017.

(4) B739i. Bortoluzzo, Maurício Mesquita Uma investigação sobre modelos de previsão da inflação brasileira / Maurício Mesquita Bortoluzzo - 2017. 83 f. : il. ; 30 cm Tese (Doutorado em Administração de Empresas) Universidade Presbiteriana Mackenzie, São Paulo, 2017. Orientação: Leonardo Fernando Cruz Basso Bibliografia: f. 63-66 1. Inflação. 2. Previsão. 3. Autometrics. 4. MCS. 5. Teste SPA. 6. VAR irrestrito. 7. Dados desagregados. 8. Combinação de previsão. 9. Função de perda assimétrica. I. Título. CDD 332.41.

(5) Reitor da Universidade Presbiteriana Mackenzie Professor Dr. Ing. Benedito Guimarães Aguiar Neto. Decano de Pesquisa e Pós-graduação Professora Dra. Helena Bonito Corno Pereira. Diretor do (enrio de Ciências Sociais e Aplicadas Professor Dr. Adilson Aderito da Silva. Coordenador do Programa de Pós-Graduação em Administração de Empresas Professor Dr. Walter Bataglia.

(6)

(7) À minha querida esposa Adriana, por todo o apoio e incentivo. A meus pais Oscar e Vera, e a meus filhos Gi e Gabi, por todo o amor e compreensão..

(8)

(9)

(10)

(11) AGRADECIMENTOS. Meus profundos agradecimentos: A meu orientador, prof. Leonardo Cruz Basso, pela dedicação, atenção e incentivo dados ao longo do curso. A meu coorientador, prof. Emerson Fernandes Marçal, pela confiança e apoio nos momentos decisivos para a realização desta tese. Ao professor Wilson Toshiro Nakamura pela amizade e pelas aulas inspiradoras. Ao professor Eli Hadad Júnior e ao aluno de mestrado Lucas Villela pela enorme disposição em tirar dúvidas e em ajudar com qualquer problema relacionado ao laboratório de finanças. Aos professores Denis Forte e Michele Jucá, além dos professores já citados, e dos colegas Arthur, José Renato, Daniel Machado, Marisa, Sandro, Ricardo, Edson, Luiz, Ricardo e Davi, e outros que porventura eu tenha esquecido, por tornar a vida corrida de doutorando e a convivência no laboratório de finanças muito especiais e proveitosas. Certamente sentirei falta de nossa convivência diária. Ao professor Diogo de Prince Mendonça pelas dicas e contribuições quando da participação da banca de qualificação. Aos autores Thiago Carlomagno Carlo e professor Emerson Fernandes Marçal pela disponibilização dos dados do artigo publicado na Applied Economics, o que permitiu a ampliação do estudo e enriqueceu muito este trabalho. À minha esposa, prof. Adriana Bruscato Bortoluzzo, pelas cobranças e pela voz da experiência, que serviram para minha motivação e força de vontade. O autor teve auxílio financeiro na forma de taxa pelo Fundo Mackenzie de Pesquisa (MackPesquisa) e, posteriormente na forma de bolsa, pelo Programa de Suporte à PósGraduação de Instituições de Ensino Particulares, da Fundação Coordenação Aperfeiçoamento de Pessoal de Nível Superior (CAPES-PROSUP), o qual o autor é profundamente grato..

(12)

(13) RESUMO. A presente tese realiza um estudo pseudo tempo real sobre a previsibilidade da inflação brasileira, medida pelo IPCA, utilizando dados de janeiro de 1995 a dezembro de 2015. O principal objetivo do estudo é comparar a acurácia preditiva de modelos multivariados, contendo informações macroeconômicas, contra modelos ingênuos e contra modelos de dados desagregados da inflação, que na literatura recente apresentaram sucesso em superar os modelos benchmarks. Foram encontradas evidências que a maioria dos modelos com variáveis macroeconômicas possuem acurácia preditiva superior ao benchmark tradicional da literatura, o modelo Autorregressivo de ordem 1 (AR(1)). Também há evidências quanto à superioridade de previsões geradas pelo modelo com maior desagregação de dados. Além disso, verifica-se que o ranqueamento das previsões dos modelos se altera quando se alteram: a função de perda, os horizontes de previsão e as janelas de tempo utilizadas para as avaliações.. Palavras-chave: Inflação. Previsão. Autometrics. MCS. Teste SPA. VAR irrestrito. Dados desagregados. Combinação de previsão. Função de perda assimétrica..

(14)

(15) ABSTRACT. The present thesis performs a pseudo real time study on the predictability of Brazilian inflation, measured by the IPCA, using data from January 1995 to December 2015. The main objective of the study is to compare the predictive accuracy of multivariate models, containing macroeconomic information, against Naive models and against disaggregated data models of inflation, which in the recent literature have been successful in overcoming benchmark models for Brazilian inflation. We found evidence that most models with macroeconomic variables have predictive accuracy higher than the traditional benchmark of the literature, the autoregressive model of order 1. There is also evidence regarding the superiority of forecasts generated by the model with greater data disaggregation. In addition, the ranking of model forecasts changes when we change: the loss function, the forecasts horizons, and the time windows used for evaluations.. Keywords: Inflation. Prediction. Autometrics. MCS. SPA Test. Unrestricted VAR. Disaggregated data. Forecast combination. Asymmetric loss function..

(16)

(17) LISTA DE TABELAS Tabela 1: Estatísticas descritivas............................................................................................... 38 Tabela 2: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o MSE...................... 45 Tabela 3: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o MCS...................... 46 Tabela 4: 10 Melhores modelos para cada um dos 12 horizontes de previsão......................... 47 Tabela 5: Teste SPA para os dois modelos ingênuos............................................................... 50 Tabela 6: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o MCS e função de perda 𝐴𝑀𝑆𝐸0,4.................................................................................................................................... 51 Tabela 7: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o 𝐴𝑀𝑆𝐸0,4................ 51 Tabela 8: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o MCS e função de perda 𝐴𝑀𝑆𝐸0,33.................................................................................................................................. 52 Tabela 9: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o 𝐴𝑀𝑆𝐸0,33............... 52 Tabela 10: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o MCS e função de perda 𝐴𝑀𝑆𝐸0,25 ....................................................................................................................... 53 Tabela 11: Melhores Modelos e Modelo Ingênuo AR(1) de acordo com o 𝐴𝑀𝑆𝐸0,25............. 53 Tabela 12: Melhores modelos e combinações de previsões segundo ranqueamento do MCS para a inflação acumulada 12 meses à frente .................................................................................. 54 Tabela 13: Melhores modelos e combinações de previsões segundo ranqueamento do MSE da inflação acumulada 12 meses à frente ..................................................................................... 54 Tabela 14: Teste SPA para as previsões das combinações MSEW e EW ................................ 54 Tabela 15: Melhores Modelos e Modelos Ingênuos de acordo com o MSE ............................ 57 Tabela 16: Melhores Modelos e Modelos Ingênuos de acordo com o MCS ............................ 58 Tabela 17: Teste SPA para os dois modelos ingênuos e para o modelo SARIMA_52 .............. 58.

(18)

(19) LISTA DE QUADROS Quadro 1: Lista de variáveis utilizadas ..................................................................................... 33 Quadro 2: Formação do nome do modelo ................................................................................. 43 Quadro 3: Métodos de seleção de variáveis e detecção de valores aberrantes ......................... 44.

(20)

(21) LISTA DE FIGURAS Figura 1: Árvore de Busca: os círculos preenchidos representam todos os modelos únicos gerados a partir do GUM inicial das variáveis estatisticamente insignificantes ABCD .......... 24 Figura 2: Série temporal da inflação (logaritmo neperiano da taxa de inflação - IPCA) ......... 35 Figura 3: FAC e FACP do logaritmo neperiano da taxa de inflação ........................................ 35 Figura 4: Séries utilizadas na estimação dos modelos de previsão (janeiro de 1995 a dezembro de 2015) ................................................................................................................................... 41 Figura 5: Melhores Modelos e Modelo Ingênuo de acordo com o MSE .................................. 49 Figura 6: MSE da previsão da inflação acumulada em 12 meses, calculado em janelas de 2 anos .......................................................................................................................................... 50 Figura 7: Melhores Modelos e Modelos Ingênuos de acordo com o MSE ............................... 59.

(22)

(23) Sumário 1.. INTRODUÇÃO ................................................................................................................ 13. 2.. FUNDAMENTAÇÃO TEÓRICA E REVISÃO DA LITERATURA ............................. 15. 3.. 4.. 2.1. Estudos empíricos ...................................................................................................... 16. 2.2. Variáveis relacionadas com a inflação. ...................................................................... 19. METODOLOGIA ............................................................................................................. 21 3.1. Vetor Auto Regressivo (VAR) Irrestrito.................................................................... 23. 3.2. Autometrics. ............................................................................................................... 24. 3.3. Previsão na presença de quebras estruturais. ............................................................. 26. 3.4. Comparação de previsões. ......................................................................................... 28. 3.4.1. Model Confidence Set (MCS) ............................................................................. 29. 3.4.2. Teste de Habilidade Preditiva Superior .............................................................. 31. 3.5. Função de perda ......................................................................................................... 32. 3.6. Base de dados e estatísticas descritivas ..................................................................... 34. 3.7. Modelos utilizados para previsão da inflação ............................................................ 44. 3.8. Combinação de previsão ............................................................................................ 46. RESULTADOS ................................................................................................................. 47 4.1. Sensibilidade à função de perda ................................................................................. 53. 4.2. Combinação de previsão ............................................................................................ 56. 4.3. Modelos de dados desagregados ................................................................................ 58. 5.. LIMITAÇÕES E PESQUISAS FUTURAS ...................................................................... 61. 6.. CONSIDERAÇÕES FINAIS ............................................................................................ 62. REFERÊNCIAS BIBLIOGRÁFICAS ..................................................................................... 64 APÊNDICE .............................................................................................................................. 68.

(24)

(25) 13. 1. INTRODUÇÃO A previsão de como o nível geral de preços irá evoluir ao longo da vida de um compromisso é uma parte essencial do processo de decisão no setor privado. Decisões dos agentes econômicos acerca de contratos de trabalho, hipotecas, dívidas, e outros compromissos nominais de longo prazo, dependem de valores futuros da inflação. Os bancos centrais têm como principal objetivo manter a inflação estável1, e a otimização da política monetária do banco central, segundo o modelo Novo Keynesiano, depende de previsões ótimas para a inflação e, ainda, que a política será mais efetiva quanto menor a assimetria de informação (ROMER, 2012). Segundo Faust e Wright (2013), os resultados do modelo Novo Keynesiano influenciaram no aumento da transparência dos bancos centrais ao redor do mundo, sendo o anúncio de previsões de inflação e outras variáveis macroeconômicas a principal ferramenta para atingir este objetivo. De acordo com os autores, é consenso que uma previsão da inflação acurada é uma necessidade para as famílias, empresas, políticos e, principalmente, para o banco central de um país. Conforme observado em Campos, Ericsson e Hendry (2005), em todas as áreas do conhecimento em que se estuda o comportamento de agentes econômicos, os pesquisadores procuram desenvolver modelos quantitativos acerca do comportamento econômico, misturando teoria econômica com a evidência de dados. Como observado pelos autores, a tarefa é árdua devido a vários fatores: o ambiente econômico é multidimensional, dinâmico, não-linear, simultâneo, e em constante evolução. Em macroeconomia o problema talvez seja ainda mais complicado: existem as inter-relações entre economias, leis e tratados mudam, ocorrem inovações tecnológicas, etc. Ainda segundo os autores, as variáveis macroeconômicas mudam ao longo do tempo, estando sujeitas a mudanças súbitas e inesperadas; as teorias macroeconômicas são demasiadamente simplificadas e também mudam com o tempo, inclusive com a coexistência de explicações conflitantes para um mesmo fenômeno; a evidência de dados muitas vezes é inconclusiva; variáveis importantes não são observáveis; existem problemas amostrais, sobretudo em países em desenvolvimento, com séries temporais demasiadamente curtas, dados agregados, e interdependentes.. 1. Na página inicial do Banco Central do Brasil encontram-se os dizeres “Assegurar a estabilidade do poder de compra da moeda e um sistema financeiro sólido e eficiente”. http://www.bcb.gov.br/ Última vez acessado em 30/12/2016..

(26) 14. Ciccarelli e Mojon (2010) afirmam que a literatura sobre previsão de inflação aponta para uma escassez de indicadores antecedentes confiáveis para a inflação. Segundo os autores nenhum deles bate sistematicamente modelos ingênuos simples como os modelos Autorregressivo e o de passeio aleatório. Os autores ressaltam ainda que quase toda a literatura é desenvolvida com dados norte-americanos. Enquanto isso, para dados brasileiros, Carlo e Marçal (2016) encontraram evidências de ganhos estatisticamente significantes sobre modelos ingênuos, ao utilizar uma técnica de previsão individual de cada subcomponente do índice de inflação, para depois agregar as previsões individuais de forma a prever o índice. Neste contexto, o presente trabalho utiliza-se da metodologia ‘geral para específico’ (Gets), conhecida como a abordagem da London School of Economics para econometria (CAMPOS, ERICSSON e HENDRY, 2005), para realizar um estudo com diversos modelos multivariados com dados macroeconômicos no período compreendido desde 1995 até 2015. O objetivo do estudo é comparar a acurácia preditiva, para a inflação brasileira, de modelos Vetores Auto Regressivos (VAR) irrestritos de dados macroeconômicos agregados contra os modelos ingênuos e contra os modelos de dados desagregados apresentados em Carlo e Marçal (2016). Neste trabalho são encontradas evidências que, para a inflação acumulada nos próximos 12 meses, a maioria dos modelos VAR com variáveis macroeconômicas agregadas possuem acurácia preditiva superior ao benchmark tradicional da literatura, o modelo Autorregressivo de ordem 1 (AR(1)), mas não foi comprovada a superioridade preditiva quando o benchmark é um AR(12) com dummies sazonais. Além disso, as evidências encontradas reforçam os achados do trabalho de Carlo e Marçal quanto à superioridade de previsões geradas pelo modelo com maior desagregação de dados. Ainda, como sugerido por Elliott, Timmerman e Komunjer (2008), existe a possibilidade de que, para um agente de mercado, previsões que subestimem a inflação sejam indesejadas. Isto levaria a uma assimetria entre subestimação e sobrestimação da inflação. Levando em conta a possibilidade de assimetria nos custos de erros de previsão dos agentes econômicos, neste trabalho verifica-se que o ranqueamento das previsões dos modelos se altera quando se aumenta a penalidade para subestimações da taxa de inflação. O restante do trabalho está organizado como se segue: na próxima seção elabora-se a fundamentação teórica e é feita a revisão da literatura empírica sobre o tema; a seção 3 apresenta a metodologia do trabalho e a base de dados com as estatísticas descritivas e; a seção 4 apresenta e discute os resultados da pesquisa; as limitações do trabalho são apresentadas na seção 5 e a conclusão é feita na seção 6..

(27) 15. 2. FUNDAMENTAÇÃO TEÓRICA E REVISÃO DA LITERATURA Haavelmo (1944). afirma. que. existem. duas diferentes classes de. experimentos. macroeconômicos: aqueles experimentos em que se deseja verificar hipóteses de alguma teoria previamente formulada acerca de determinado fenômeno econômico, isolando-o das demais influências; e os experimentos em que a natureza está transformando-se em seu próprio grandioso laboratório, e nós somos meros observadores passivos. Segundo o autor, neste último caso podemos somente tentar ajustar as teorias à realidade dos acontecimentos. Ainda, de acordo com o autor, se for possível escolher uma teoria e um projeto de experimento tal qual os dados gerados por eles sejam equivalentes aos observados na realidade, então se representará a realidade. O presente trabalho se encaixa no segundo caso de Haavelmo e, de acordo com Juselius (2006), existe a necessidade somente de um conjunto de suposições que sejam gerais o bastante para garantir uma descrição estatisticamente válida dos dados macroeconômicos e de uma estratégia de modelagem que nos permita analisar o fenômeno de interesse de forma esquematizada. Neste contexto, a modelagem Gets da London School of Economics, foi sugerida em Hendry e Mizon (1993) como uma alternativa ao rigor das restrições teóricas que, como observado por Sims (1980), muitas vezes fazem com que os modelos gerem previsões piores do que modelos VAR sobreparametrizados com falsas restrições de exogeneidade. Sims (1980) põe em cheque o rigor excessivo de embasamento teórico macroeconômico para modelos econométricos, e afirma que não há perspectiva de que modelos macroeconômicos sobreparametrizados desaparecerão de cena, pelo fato de serem ferramentas úteis na previsão e na análise de políticas. Segundo o autor, mesmo que estes modelos utilizem falsas premissas, a identificação estrutural normalmente não é necessária e as falsas restrições de exogeneidade destes modelos podem até ajudá-los a funcionar melhor quando a finalidade é a de previsão. Como consequência do trabalho de Sims (1980), o modelo VAR se tornou o ponto de partida de qualquer modelagem macroeconômica (ANDERSON e VAHID, 2010). No restante desta seção faremos a revisão de literatura com a apresentação de estudos empíricos internacionais e nacionais e na seção 2.2 explanam-se as variáveis utilizadas neste trabalho, que de acordo com a literatura teriam algum poder preditivo sobre a inflação..

(28) 16. 2.1 Estudos empíricos Nesta seção revisam-se os trabalhos empíricos estrangeiros e nacionais sobre previsão da inflação. Swanson e White (1997) utilizam diversos modelos lineares univariados e multivariados “adaptativos” e “não adaptativos”, além de modelos não lineares denominados "redes neurais artificiais", para modelar 9 variáveis macroeconômicas diferentes, entre elas a inflação. Um “modelo adaptativo”, significa que uma nova especificação é escolhida antes de cada nova previsão seja feita em uma metodologia de estimação rolling window. Os modelos “nãoadaptativos” também são reestimados para cada nova janela, mas a especificação do modelo permanece fixa ao longo do horizonte de previsão. Também foram utilizados dados não revisados para garantir uma previsão ex ante, comparável com previsões de profissionais do mercado que necessariamente são elaboradas com base em informações não revisadas. Os autores encontram evidências de que previsões ex ante, baseadas em métodos de previsão de rolling window, de modelos multivariados “VAR adaptativos” superam uma variedade de: (i) modelos univariados “adaptativos” e “não adaptativos”, (ii) modelos multivariados “não adaptativos”, (iii) modelos não lineares “adaptativos” e (iv) Previsões de pesquisa disponíveis profissionalmente; Atkeson e Ohanian (2001) avaliam a previsão de modelos baseados em curvas de Phillips, comparando a precisão de previsões destes modelos à previsão ingênua de que em qualquer data a inflação será a mesma durante o próximo ano como foi no ano passado (média simples), ao longo de um período de 15 anos. Os autores encontram evidências de que nenhuma das previsões de diferentes modelos baseados na curva de Phillips é mais precisa do que a previsão ingênua. Domac (2004) investiga o desempenho de modelos que têm fundamentos teóricos para a previsão dentro e fora da amostra para a Turquia. O autor encontra evidências de que a curva de Phillips e os modelos de demanda por moeda funcionam melhor do que modelos de markup e que a importância relativa do hiato do produto e do desequilíbrio monetário no processo de inflação aumentou sob o regime de taxa de câmbio flutuante. Stock e Watson (2007) examinam se o trabalho de prever a inflação americana se tornou mais difícil ao longo do tempo e quais as mudanças no processo de inflação que tornaram este trabalho mais difícil ou fácil. O principal achado é que, em períodos mais recentes, o processo.

(29) 17. de inflação é bem descrito por um modelo de componente não observado de tendência cíclica e volatilidade estocástica ou, de forma equivalente, por um processo de média móvel integrada com parâmetros variantes no tempo. Os autores encontraram evidências de que as previsões de modelos multivariados não são melhores que as previsões feitas usando o modelo univariado variante no tempo. Elliot e Timmerman (2008), em uma base de dados mensais de janeiro de 1959 a dezembro de 2003, utiliza estimação recursiva e rolling window para comparar a previsão de 12 modelos diferentes. A combinação de previsões foi a que obteve melhor acurácia preditiva, embora a diferença entre as melhores previsões tenha sido relativamente pequena. No entanto, os autores encontraram evidências da inferioridade das previsões geradas por modelos do tipo Smooth Transition Autoregressive (STAR). Com o grande número de variáveis utilizadas para a previsão de variáveis macroeconômicas, uma alternativa para lidar com o problema tem sido o uso de análise fatorial para reduzir o número de parâmetros a serem estimados. Bernanke, Boivin e Eliasz (2005) utilizam modelos factor-augmented VAR (FAVAR) para a previsão da inflação americana e encontram evidências de que este modelo é importante para identificar o mecanismo de transmissão monetária para a inflação. Barnett, Mumtaz e Theodoridis (2014) comparam desempenhos de uma ampla gama de modelos de parâmetros variando no tempo na previsão da inflação inglesa, e chegam ao resultado de que o modelo FAVAR com parâmetros variantes no tempo apresentam um MSE médio 14% menor que o de um modelo AR (p) no horizonte de um ano, sendo o modelo com melhor desempenho na amostra. No Brasil, Garcia (1992) analisa a previsão de inflação implícita nos contratos de juros préfixados do mercado financeiro em um período de hiperinflação (entre outubro de 1987 e fevereiro de 1990). De acordo com o autor, o mercado futuro e as taxas de inflação implícita nos contratos apresentaram previsões melhores que as do Banco Central (BC). O autor conclui que as estimativas do BC são sistematicamente viesadas para baixo, ou com a intenção de taxar o lucro financeiro inflacionário, ou na crença de que as previsões otimistas exerceriam um papel de coordenador de expectativas do mercado, levando a uma redução destas e, consequentemente, da inflação oficial..

(30) 18. Chauvet (2001) cria um indicador antecedente através da utilização de um modelo de fator dinâmico para extrair os movimentos cíclicos comuns em um grupo de variáveis que possuem poder de previsão da inflação. Os resultados empíricos confirmam que os indicadores antecedentes sinalizam a alternância de fases futuras da evolução da inflação mesmo em tempo real, quando somente informações preliminares não-revisadas estão disponíveis. Freitas e Muinhos (2001) estimam um modelo de 6 equações, com base nas curvas de Phillips e IS para o Brasil pós Plano Real, e com uma base de dados trimestrais mostram que a produção está positivamente relacionada à inflação com uma defasagem e que a desvalorização da taxa de câmbio nominal apresenta efeito contemporâneo sobre a inflação. Sachsida, Ribeiro e Santos (2009) estimaram uma curva de Phillips com dados trimestrais, adotando um modelo de Markov-Switching, e apresentam resultados que rejeitam a hipótese de linearidade nos parâmetros da curva de Phillips. Os autores ainda sugerem que a curva de Phillips seria inadequada para explicar a dinâmica inflacionária na economia brasileira. Figueiredo (2010) utilizou um grande volume de variáveis extraídas da base de dados Indicadores Econômicos do BC para gerar previsões para a inflação através de dois métodos, o de modelos fatoriais por componentes principais (CP) e modelagem fatorial por mínimos quadrados parciais. O autor encontra evidências de que a modelagem por CP gera melhores previsões para até seis passos à frente. O autor também encontra evidências de que a estimação com o uso de janelas móveis (rolling regressions) obtém melhor performance preditiva do que quando estimações recursivas são utilizadas. Já Arruda, Ferreira e Castelar (2011) compararam as projeções de inflação no Brasil com dados mensais utilizando séries temporais lineares e não-lineares e a curva de Phillips. Dentre os modelos lineares, um VAR foi o modelo que apresentou as melhores previsões, sendo superado somente por um modelo não linear baseado na curva de Phillips. Gaglianone, Issler e Matos (2016) fazem uma investigação em modelos de combinação de previsão para o período de janeiro de 2006 a maio de 2015. Os pesquisadores utilizam a média do relatório Focus do BC com e sem correção de viés, além da combinação de previsão de Granger e Ramanathan (1984), comparando os resultados com o modelo ingênuo AR(1). Os autores encontram evidências de que o média das previsões com correção de viés domina a previsão sem correção de viés e que a combinação de previsões apresenta um menor MSE comparado ao modelo AR(1)..

(31) 19. Carlo e Marçal (2016) (C&M deste ponto em diante) utilizam o IPCA mensal no período de janeiro de 1996 a março de 2012 para comparar, quanto à eficiência de previsão até 12 passos à frente, diferentes modelos de previsão do tipo ARIMA sazonal (SARIMA), utilizando dados desagregados e agregados do IPCA. Além dos modelos SARIMA também foram utilizados modelos estruturais a state-space representations Os autores encontraram evidências de ganhos de previsão em modelos que utilizam dados mais desagregados quando comparados aos modelos que utilizam dados agregados. Nesta investigação são utilizados os dados de previsões de C&M, cedidos pelos autores2 do trabalho original, para verificar se algum dos modelos VAR estimados aqui obtém acurácia preditiva superior aos modelos SARIMA de inflação desagregada. Conforme descrito na seção de metodologia do presente trabalho, os modelos ingênuos que são testados neste trabalho podem ser considerados modelos “adaptativos” e, desta forma, também permitem que os coeficientes variem ao longo do tempo, incluindo características dos modelos utilizados por Swanson e White (1997) e Stock e Watson (2007). No Brasil, até onde o autor tenha conhecimento, nenhum outro estudo utilizou uma janela de tempo tão ampla, tanto para a modelagem quanto para a comparação de previsão. Poucos estudos brasileiros utilizaram a metodologia do MCS e o teste SPA para fins de comparação das previsões, e nenhum comparou modelos contendo dados macroeconômicos com modelos de dados desagregados.. 2.2 Variáveis relacionadas com a inflação. A seguir as variáveis macroeconômicas utilizadas nos modelos de previsão são descritas. De acordo com Bodie, Kane e Marcus (2014), a política fiscal é provavelmente a maneira mais direta para se estimular ou para desacelerar a economia. Uma diminuição nos gastos do governo diminui diretamente a demanda por bens e serviços. Da mesma forma, aumentos de impostos diminuem instantaneamente os rendimentos dos consumidores e resultam em diminuições bastante rápidas no consumo.. 2. O autor fica profundamente agradecido aos autores Thiago Carlomagno Carlo e professor Emerson Fernandes Marçal pela disponibilização dos dados..

(32) 20. Segundo os autores, uma maneira comum para resumir o impacto líquido da política fiscal do governo é olhar para o superávit ou déficit orçamentário do governo. Um grande déficit primário significa que o governo está gastando mais do que ele está tomando por meio de impostos. Desta forma o Governo aumenta a demanda por bens e serviços mais do que reduz a demanda por bens (via impostos), implicando em um efeito líquido de aumento na demanda. Quando a oferta de bens e serviços não acompanha este aumento da demanda, ocorre um aumento generalizado de preços na economia. Captura-se o efeito da política fiscal através de duas variáveis: a Necessidade de Financiamento do Setor Público (NFSP) sem desvalorização cambial, como percentual do PIB; e o estoque da dívida pública federal em mercado (dívida). Ambas variáveis aparecem entre as mais frequentemente selecionadas como relevantes para previsão da inflação nacional de acordo com o trabalho de Silva (2016). As informações são de responsabilidade do Banco Central do Brasil (BC) e da Secretaria de Tesouro Nacional (STN), respectivamente. A política monetária afeta a economia de uma forma menos direta do que a política fiscal, que funciona através do seu impacto sobre as taxas de juros. Aumentos (diminuições) na oferta monetária levam a menores (maiores) taxas de juros. De acordo com Fama (1981), existiria uma relação negativa entre a inflação e a atividade econômica, explicadas pela combinação da teoria quantitativa da moeda e da teoria da demanda por moeda transacional, relação que teria sido verificada empiricamente no trabalho de Fama e também em Nelson (1979). A visão monetarista de Friedman (1970), assim como a teoria de expectativas racionais de Lucas (1973) também sugerem o entendimento de que o nível de preços possa influenciar e sofrer influências do nível de atividade. Fuerst (1992) demonstra, em um modelo de equilíbrio geral, que uma política fiscal expansionista leva a uma queda na taxa de juros real, o que levaria a um aumento da atividade real. No entanto, caso a oferta não aumente, a política fiscal implicará em aumento da inflação. Em um estudo empírico com dados dinamarqueses, Juselius (1994) encontra evidências de que choques acumulados nas taxas de juros nominais geraram inflação, enquanto que Juselius (2006) justifica o uso das variáveis inflação, taxa de juros nominal, base monetária e renda em modelos do tipo VAR. Independente da relação de causa-efeito entre as variáveis, nos parece que as variáveis macroeconômicas podem conter alguma informação relevante para a previsão de inflação, principalmente quando utilizadas conjuntamente..

(33) 21. Como proxies para as variáveis de taxa de juros, produção, base monetária e renda, foram coletadas a taxa básica de juros da economia (SELIC), a produção industrial 3 disponibilizada pelo Instituto Brasileiro de Geografia e Estatística (IBGE), a variável de base monetária M0 disponibilizada pelo BC, e a variável imposto de renda retido nas fontes (IRRF), disponibilizada pelo Ministério da Fazenda. Aumentos (diminuições) na oferta monetária levam a menores (maiores) taxas de juros. A taxa de juros nominal é composta da taxa real mais um fator para compensar o efeito da inflação, e mudanças nas expectativas de taxas de juros podem ser tanto devido a mudanças nas expectativas de taxas reais, quanto devido a mudanças nas expectativas da inflação (BODIE, KANE e MARCUS, 2014). Desta forma, acredita-se que o mercado de swap de taxa de juros contenha informação útil para a previsão de inflação. O fato de este mercado envolver investimento financeiro por parte dos agentes econômicos faz com que as previsões sejam mais críveis (GARCIA, 1992). Diferente de previsões anunciadas na mídia ou em relatórios econômicos, previsões equivocadas geram alto custo financeiro neste mercado e servem como estímulo para a qualidade das previsões. Seguindo esta linha de raciocínio, Garcia (1992) utiliza taxas de juros pré fixadas para obter melhores previsões do que o BC. Para capturar esta informação, neste estudo utilizam-se as variáveis spread_60, spread_90, spread_180 e spread_360, que são taxas referenciais de contratos de swaps DI versus taxa pré-fixada com diferentes prazos de vencimento. As informações são geradas pela BMF&Bovespa.. 3. METODOLOGIA A proposta deste capitulo é a de explicitar os principais aspectos metodológicos, a base de dados, definição das variáveis e análise dos dados. O presente trabalho utiliza-se da metodologia Gets para simplificar modelos multivariados Vetor Auto Regressivo (VAR) com o auxílio do algoritmo de seleção automática de modelos Autometrics. Faz-se então uma simulação de previsão em pseudo tempo real, na tentativa de simular as informações disponíveis tão próximas quanto possível das informações à disposição 3. Não pôde ser utilizado o PIB pela inexistência de dados mensais desta série..

(34) 22. de um agente no momento da previsão, de forma que os modelos são reestimados em cada instante de tempo (mês) para incorporar a nova informação que chega. Não foi possível realizar um estudo de tempo real pois os dados coletados e utilizados para estimar os modelos são dados revisados. Estes dados não são exatamente os mesmos que estavam disponíveis aos agentes, devido à indisponibilidade dos dados originais. Foi utilizada a técnica de estimação recursiva (expanding window) de forma que, após a estimação do modelo utilizando as primeiras 144 observações, geram-se as previsões 12 passos à frente e, em um segundo passo, adiciona-se uma observação ao conjunto de informações disponível, que agora passa a contar com 145 observações. Procede-se novamente com a estimação agora com a janela de dados expandida e gera-se novamente previsões 12 passos à frente, e assim por diante. Os modelos VAR estimados seguindo este procedimento equivalem aos modelos que Swanson e White (1997) chamaram de “modelos VAR adaptativos”, pois permite não só a reestimação dos parâmetros do modelo a cada novo conjunto de informação, mas também se permite que as variáveis ou algumas defasagens sejam excluídas ou reinseridas no modelo de acordo com os critérios do algoritmo de seleção automática Autometrics. Também é possível utilizar a técnica de estimação recursiva nos modelos chamados de “não adaptativos”, mas, neste caso, permitirse-ia apenas a mudança nos coeficientes do modelo entre duas janelas de dados utilizadas nas estimações, sem haver a exclusão ou inclusão de defasagens entre duas ou mais estimações. Para cada modelo, são geradas previsões de um a doze passos à frente, em um horizonte de previsão de um ano. Neste trabalho há o interesse na inflação acumulada no período, ou seja, 𝑝 𝑖 as previsões são da inflação acumulada entre hoje (t=0) e p meses à frente 𝑌̂𝑡+𝑝 ≡ ∑𝑝𝑖=1 𝑌̂𝑡+𝑖 , em. que 𝑌̂𝑡1 é a previsão da inflação de 1 mês para o mês t. As projeções são então agrupadas de acordo com horizontes temporais, resultando em 12 grupos de previsões, um para um mês a frente, outro para dois meses à frente e assim por diante até para doze meses à frente. Este procedimento leva a criação de uma base de dados de previsões. Esta base de dados é então utilizada para comparar o poder preditivo de dos modelos para a inflação brasileira medida pelo IPCA, com o auxílio do Model Confidence Set (MCS) de Hansen, Lunde e Nason (2011), do teste de habilidade preditiva superior (teste SPA) de Hansen (2005), explicados nesta seção, e também por ranqueamento quanto ao menor erro de previsão segundo diferentes funções de perda..

(35) 23. Na subseção seguinte expomos o modelo VAR irrestrito; na subseção 3.2 é descrito o funcionamento do algoritmo Autometrics; na subseção 3.3 explana-se as metodologias para detecção de valores aberrantes que são empregadas em alguns dos modelos competidores; a subseção 3.4 apresenta o MCS e o teste SPA como metodologias de comparação de modelos; a subseção 3.5 explica as funções de perda utilizadas nas comparações das previsões; a subseção 3.6 traz as explicações das variáveis utilizadas nas estimações, as estatísticas descritivas e testes de raiz unitária nas séries; a subseção 3.7 fala sobre a especificação inicial de cada um dos 155 modelos competidores. Além das previsões dos modelos, foram também consideradas as previsões geradas por dois tipos de combinações de previsões, cujos detalhes metodológicos se encontram na subseção 3.8. 3.1 Vetor Auto Regressivo (VAR) Irrestrito. Juselius (2006) argumenta que a forma irrestrita do modelo VAR é essencialmente uma reformulação das covariâncias dos dados e que, caso esta covariância tenha se mantido aproximadamente constante ao longo do tempo, o modelo VAR irrestrito pode convenientemente ser considerado um sumário dos ‘fatos estilizados’ dos dados. A autora ainda sustenta que, caso o ‘verdadeiro’ modelo satisfaça uma aproximação linear de primeira ordem, é possível se fazer diversos testes de hipóteses dentro de um framework estatístico válido. O modelo VAR descreve a relação linear de um grupo de k variáveis endógenas com as defasagens delas próprias. O modelo VAR com p defasagens, VAR(p), pode ser definido pela equação (1): 𝑦𝑡 = 𝑐 + 𝐴1 𝑦𝑡−1 + ⋯ + 𝐴𝑝 𝑦𝑡−𝑝 + 𝑒𝑡 ,. 𝑡 = 1, … , 𝑇. (1). Em que 𝑦𝑡 é o vetor (k x 1) de variáveis dependentes, c é o vetor de interceptos, 𝐴𝑙 é a matriz (k x k) de coeficientes a serem estimados para a defasagem l e 𝑒𝑡 é o vetor (k x 1) de erros de média zero, não correlacionados através do tempo e com matriz de covariância positivadefinida Ω. A equação (1) pode ser escrita de forma compacta como: 𝑦𝑡 = 𝐵′𝑌𝑡 + 𝑒𝑡 ,. 𝑡 = 1, … , 𝑇. (2). Em que 𝐵′ = [𝑐, 𝐴1 , … , 𝐴𝑝 ] e 𝑌′𝑡 = [1, 𝑦′𝑡−1 , … , 𝑦′𝑡−𝑝 ]. Segundo Juselius (2006), caso os parâmetros do modelo sejam irrestritos e na inexistência de raiz unitária nos dados, então os estimadores de Mínimos Quadrados Ordinários (MQO) e de Máxima Verossimilhança (MV).

(36) 24. para as matrizes de parâmetros e de covariância (𝐵e Ω) serão idênticos e dados pelas equações (3) e (4): 𝐵̂′ = ∑𝑇𝑡=1( 𝑦𝑡 𝑌′𝑡 )(∑𝑇𝑡=1 𝑌𝑡 𝑌′𝑡 )−1 ̂ = 𝑇 −1 ∑𝑇𝑡=1(𝑦𝑡 − 𝐵̂′ 𝑌𝑡 )(𝑦𝑡 − 𝐵̂′ 𝑌𝑡 )′ = 𝑇 −1 ∑𝑇𝑡=1 𝑒̂𝑡 𝑒̂𝑡−1 Ω. (3) (4). Um problema de modelos VAR é o grande número de parâmetros a serem estimados. Em um modelo de k variáveis e p defasagens para cada variável, além da constante, existe a necessidade de estimação de k+k2p parâmetros. Segundo Anderson e Vahid (2010), uma das possíveis maneiras de lidar com o problema é permitindo que se determine o número de defasagens de cada equação separadamente. Neste trabalho utilizam-se métodos de seleção automática de modelos de acordo com a filosofia de modelagem ‘geral para específico’ (Gets) em modelos VAR para mitigar este problema. A modelagem Gets foi sugerida em Hendry e Mizon (1993) e avaliada empiricamente em Hoover e Perez (1999). Posteriormente, foi implementada como método de seleção automática de modelos em Hendry e Krolzig (2005) e, mais recentemente, em Doornik (2009). Neste método, simplifica-se um modelo inicialmente geral que caracteriza a evidência empírica dentro de sua estrutura teórica. Após o trabalho de Hoover e Perez (1999), que desenvolveram e analisaram um algoritmo para a modelagem ‘geral para específico’, uma grande quantidade de pesquisas (HENDRY e KROLZIG, 1999, 2001, 2003, 2005) se seguiram como alternativas e melhorias ao algoritmo, assim como à avaliação dos mesmos. Nesta pesquisa utiliza-se o algoritmo Autometrics desenvolvido em Doornik (2009) para reduzir os modelos VAR inicialmente formulados.. 3.2 Autometrics. O algoritmo Autometrics é descrito com mais detalhes em Doornik (2009). A busca por modelos é feita para cada ramificação da árvore de busca conforme ilustração da Figura 1. A modelagem se inicia com um modelo linear chamado de General Unrestricted Model (GUM), ou Modelo Geral Irrestrito. Quando o número de variáveis é menor que o número de observações, como é o caso deste trabalho, o GUM contém todas as variáveis candidatas. O modelo então passa por testes de significância estatística. Caso todas as variáveis apresentem significância estatística, o GUM é o modelo final. Caso contrário, o algoritmo procura por.

(37) 25. modelos mais simples pelas ramificações da árvore de busca, através da remoção de variáveis com coeficientes insignificantes até que se chegue a uma especificação final chamada de modelo terminal. Como existem várias ramificações, podem haver vários modelos terminais. O algoritmo então forma a união dos modelos terminais e testa cada um dos modelos terminais contra o modelo resultante desta união. A união dos modelos que passa por este teste forma então um novo GUM, e o procedimento de testes geral para específico recomeça até a obtenção de um novo grupo de modelos terminais. Caso estes novos modelos terminais sejam rejeitados contra o novo GUM, então este será o modelo final. Caso contrário o procedimento de modelagem recomeça com um terceiro GUM formado pela união dos últimos modelos terminais até que um modelo final seja alcançado.. Figura 1: Árvore de Busca: os círculos preenchidos representam todos os modelos únicos gerados a partir do GUM inicial das variáveis estatisticamente insignificantes ABCD. Para k variáveis insignificantes deveriam ser estimados 2 k modelos, o que torna a computação inviável na prática, ainda mais no caso de haver a necessidade de rodar o algoritmo novamente para a observação adicionada à amostra em um ambiente de previsão recursiva (expanding window). Assim, para percorrer de forma mais eficiente a árvore de busca eliminando ramificações, o algoritmo implementa as seguintes estratégias:.

(38) 26. . Poda (Pruning): Se a exclusão de uma variável faz com que o modelo reduzido tenha piores resultados nos testes de diagnóstico então toda ramificação é ignorada. Os testes levam em consideração o p-valor do Autometrics (pa), que é o nível de significância abaixo do qual um grupo de variáveis não pode ser excluído do modelo.. . Agrupamento (Bunching): o algoritmo tenta eliminar um grupo de variáveis ao invés de uma única variável por vez. Em uma determinada ramificação, quando várias variáveis são insignificantes, o algoritmo tenta a exclusão do grupo inteiro de variáveis para eliminar passos desnecessários. Caso a exclusão falhe, o algoritmo tenta a exclusão de subgrupos menores.. . Corte (Chopping): Quando um grupo de variáveis é muito insignificante (p-valores das variáveis muito alto), o grupo inteiro é “cortado” de forma que os subgrupos não são analisados e o algoritmo passa então para a próxima ramificação da árvore de busca. Este procedimento gera ganhos computacionais mas leva à perda de combinações de variáveis. Estas duas estratégias podem ser configuradas pelo usuário através da determinação de um p-valor específico que por padrão equivalem a. 1. 𝑝 2 𝑎. 0,5. . Quanto. menor o p-valor especificado, menor o uso da estratégia.. 3.3 Previsão na presença de quebras estruturais. Quebras estruturais são mudanças súbitas no ambiente macroeconômico que resultam em mudanças nos níveis e nas estruturas de correlações das séries macroeconômicas. As quebras geram dificuldade na modelagem empírica pós quebra e principalmente na previsão de variáveis macroeconômicas. A história econômica brasileira recente está repleta de acontecimentos que podem ser relacionados a quebras estruturais ou a observações aberrantes (outliers). O funcionamento da economia no período anterior à implementação do plano de estabilização da economia em 1994, denominado Plano Real, e depois deste plano sofreu mudanças tão significativas a ponto de tornar os dados anteriores a 1994 intratáveis4. O default da dívida russa levou a uma queda no PIB brasileiro nos dois últimos trimestres de 1998 e a uma desvalorização cambial com 4. No período de 1986 a 1994 vários programas heterodoxos de estabilização de preços fracassaram e levaram a inflação a patamares superiores a 1.000% ao ano. Disponível em: http://educacao.uol.com.br/disciplinas/historia-brasil/plano-real-fim-da-inflacao-e-conquista-da-estabilidadeeconomica.htm Acesso em: 03/01/2017..

(39) 27. consequências inflacionárias (AVERBUG e GIAMBIAGI, 2000). De 1999 em diante, a economia brasileira alterou sua política macroeconômica, que passou a se apoiar no tripé de equilíbrio fiscal, regime cambial flutuante e sistema de metas de inflação. A recessão nos EUA e a crise na Argentina em 2001 levaram o Brasil a uma leve recessão em meados de 2001, e a inflação chegou a 7,7% a.a. (AVERBUG, 2002). Em 2002, quando incertezas relativas ao processo eleitoral levaram a pioras nas expectativas dos agentes, a inflação saltou para 12,5% e em 2003 se manteve alta, atingindo 9,3%. Após a confirmação da manutenção da política econômica, o Brasil experimentou crescimento do PIB e baixa inflação até a crise financeira de 2008. A crise levou o governo a abandonar o tripé que sustentava o Plano Real e mudou a política econômica para a chamada Nova Matriz Econômica, caracterizada por expansão fiscal, expansão do crédito a juros subsidiados, e taxa de câmbio flutuante administrada (SACHSIDA, 2014). O desequilíbrio fiscal desencadeado pela NME levou a inflação a 10,67% em 2015 e a uma recessão que se arrasta desde meados de 2014 até o momento atual. Embora uma perspectiva histórica seja útil para a determinação dos períodos em que houve quebras estruturais ou observações aberrantes na série analisada, em um ambiente de previsão dinâmica não se sabe ao certo o momento exato de se introduzir uma dummy para capturar estes efeitos. Daí se pode considerar a necessidade de se utilizar algoritmos para a identificação das observações aberrantes conforme elas vão sendo incluídas na amostra em uma abordagem de previsão recursiva (expanding window). Hendry, Johansen e Santos (2006) consideram uma aplicação específica de modelagem automática Gets em que os autores adicionam N indicadores de impulso (dummies), um para cada observação, e demonstram que a aplicação da abordagem Gets apresentada em Hendry e Krolzig (2005) pode ser utilizada com sucesso para a seleção das dummies. O processo de detecção de valores aberrantes divide a amostra em dois conjuntos e faz a saturação do primeiro conjunto e depois do outro com dummies. As dummies têm sua significância testada usando as estimativas de parâmetros do outro conjunto, e a observação correspondente é excluída se a estatística de teste for significativa. Este processo é definido como Impulse Indicator Saturation (IIS) e implementado no OxMetrics 7®. Johansen e Nielsen (2008) derivam as propriedades assintóticas do estimador de MQO com o procedimento IIS e demostram a robustez deste na presença de valores aberrantes e de quebras estruturais..

(40) 28. Hendry e Johansen (2015) demostram que o custo de buscar dummies desta maneira não é muito alto caso a significância seja suficientemente baixa, mais especificamente, prova-se que para cada 100 dummies adicionadas espera-se encontrar 1 dummy por engano quando o nível de significância da busca é configurado em 1%.. 3.4 Comparação de previsões. O conhecido teste de Diebold e Mariano (1995) oferece uma forma adequada para testar a igualdade preditiva entre pares de modelos. No entanto, quando o conjunto de modelos comparáveis é muito grande, o procedimento se torna inadequado. Em uma investigação em que se realiza uma busca por diversas especificações de modelo, com a intenção de encontrar o melhor modelo preditor de uma variável, sempre existe a possibilidade de que um ou mais bons modelos tenham sido encontrados por pura sorte, e não pela sua habilidade preditiva. Este problema, conhecido como data snooping, foi tratado por White (2000) como endêmico em séries temporais pelo fato de haver apenas uma realização observada da variável e a consequente reutilização desta informação para finalidade de estimação de modelos concorrentes. Tendo em vista este problema, White (2000) especifica o procedimento reality check para testar a hipótese nula de que o melhor modelo encontrado em uma pesquisa de especificação não tem superioridade preditiva comparado a um determinado modelo de referência (benchmark). Apesar da relevância do trabalho de White, Hansen (2005) demonstra que o reality check de White (2000) pode ser facilmente manipulado através da inclusão de um grande número de modelos ruins (de baixo desempenho preditivo). O autor sugere o Superior Predictive Ability test (teste SPA), que é um teste para verificar a superioridade preditiva de um modelo referente a um benchmark, sendo o teste SPA robusto à adição de modelos ruins. Em uma abordagem diferente, Hansen, Lunde e Nason (2011) apresentam o Model Confidence Set (MCS), que é um conjunto de modelos que contém o melhor modelo com determinado nível de confiança. Esta investigação utiliza o MCS com diferentes funções de perda com a finalidade de ranquear os modelos quanto à suas habilidades preditivas, e também utiliza o SPA para dar robustez aos resultados, verificando se algum modelo alternativo é superior aos modelos de referência. Ambos os procedimentos serão descritos mais detalhadamente a seguir..

(41) 29. 3.4.1. Model Confidence Set (MCS). O objetivo do procedimento de determinação do MCS é criar um conjunto M*, constituído do(s) melhor(es) modelo(s) extraídos de um grupo de modelos candidatos, M0, em que o critério de “melhor” pode ser definido pelo usuário. O procedimento de determinação do MCS resulta em ̂ *, que é um conjunto de modelos construído para um conjunto de confiança de modelos 𝑀 ̂ * são avaliados conter os melhores modelos com um certo grau de confiança. Os modelos de 𝑀 pela utilização da informação amostral das performances relativas dos modelos contidos em ̂ * está para o M0. Portanto, o MCS é um conjunto aleatório que inclui modelos de previsão, e 𝑀 melhor modelo assim como um intervalo de confiança está para o parâmetro populacional. Uma característica atrativa da abordagem do MCS é que ela reconhece as limitações dos dados. Dados informativos resultarão em um MCS que contém apenas o melhor modelo. Dados menos informativos fazem com que seja difícil distinguir entre os modelos e pode resultar em um MCS que contém vários ou até mesmo todos os modelos. Desta forma, o MCS difere de critérios de seleção de modelo existentes que escolhem um único modelo sem levar em conta o conteúdo dos dados. Através do procedimento de determinação do MCS é possível se fazer afirmações sobre significância que são válidas no sentido tradicional, outra propriedade que não é compartilhada com a abordagem comumente utilizada de Diebold e Mariano (1995) de relatar valores-p a partir de múltiplas comparações de pares de modelos. Outra característica atrativa do processo de determinação do MCS é que ele permite a possibilidade de que mais de um modelo seja o "melhor", isto é, M* pode conter mais do que um único modelo. O MCS é construído a partir de uma coleção de modelos competidores, 𝑀0 , e de um critério para avaliar estes modelos empiricamente. O procedimento de determinação do MCS se baseia em um teste de equivalência, 𝛿𝑀 , e uma regra de eliminação, 𝑒𝑀 . O teste de equivalência é aplicado ao conjunto de objetos 𝑀 = 𝑀0 . Se 𝛿𝑀 é rejeitado, existe evidência que os modelos M não são igualmente “bons”, e então 𝑒𝑀 é utilizado para eliminar um objeto de M que tenha apresentado performance amostral ruim. Este procedimento é repetido até que 𝛿𝑀 seja “aceito”, e o MCS passa a ser definido como o conjunto de modelos “sobreviventes”. O mesmo nível de significância α é definido em todos os testes, o que, segundo Hansen, Lunde e Nason (2011), ∗ ) assintoticamente garante que 𝑃 (𝑀 ⊂ 𝑀1−𝛼 ≥ 1 − 𝛼, e, no caso de 𝑀∗ consistir em apenas um ∗ ̂1−𝑎 ) = 1. objeto, tem se o resultado mais forte que lim 𝑃(𝑀∗ = 𝑀 𝑛→∞.

(42) 30. Para uma explanação mais formal do procedimento de determinação do MCS, considere um conjunto, M0, que contenha um número finito de modelos, indexados por i=1,...,m0. Os modelos são avaliados sobre uma amostra t=1,...,T, em termos de uma função de perda e se denota a perda associada a i, no tempo t, por: Li,t. Defina as variáveis de performance relativa como 𝑑𝑖𝑗,𝑡 ≝ 𝐿𝑖,𝑡 − 𝐿𝑗,𝑡 , para todo i, j, pertencente a 𝑀0 . Então, o conjunto de modelos superiores é definido como 𝑀 ∗ ≝ {𝑖 ∈ 𝑀0 ∶ 𝐸(𝑑𝑖𝑗,𝑡 ) ≤ 0 ∀ 𝑗 ∈ 𝑀𝑜 }. O objetivo do procedimento é determinar 𝑀 ∗ . Isto é feito através de uma sequência de testes de significância, em que objetos que são significantemente inferiores a outros elementos de M0 são eliminados. A hipótese que está sendo testada toma a forma: 𝐻0,𝑀 : 𝐸(𝑑𝑖𝑗,𝑡 ) = 0 para todo i, j, pertencente a M, em que M está contido em 𝑀0 . Denota-se a hipótese alternativa como 𝐻𝐴,𝑀 de que 𝐸(𝑑𝑖𝑗,𝑡 ) ≠ 0 para algum i, j pertencente a M. O teste de equivalência 𝛿𝑀 é utilizado para testar 𝐻0,𝑀 para qualquer conjunto M contido em M0. No caso da hipótese nula ser rejeitada, então 𝑒𝑀 é utilizado para identificar o objeto que será eliminado de M. Logo o algoritmo do MCS é baseado nos três passos a seguir: 1- Inicialmente configure 𝑀 = 𝑀0 2- Teste 𝐻0,𝑀 com α de nível de significância ∗ ̂1−𝛼 3- Se 𝐻0,𝑀 não é rejeitada, define-se 𝑀 = 𝑀, caso contrário utiliza-se 𝑒𝑀 para. eliminar um objeto de M e repete-se o procedimento a partir do passo 2. Ao final do algoritmo, o conjunto de objetos que passaram por todos os testes sem serem ∗ ̂1−𝛼 eliminados (o conjunto 𝑀 ) será o conjunto de confiança de modelos, o MCS.. P-valores do MCS Para um dado modelo i pertencente a M0, o p-valor do MCS, 𝑝̂𝑖 , é o limiar no qual i pertence a ∗ ̂1−𝛼 𝑀 se e somente se 𝑝̂𝑖 ≥ α. Portanto, um modelo que apresente um baixo 𝑝̂𝑖 é pouco provável. de fazer parte do “melhor” grupo de modelos (𝑀∗ ). Para definir os p-valores do MCS, considere m0 como o número de elementos no M0. A regra de eliminação 𝑒𝑀 define uma sequência de conjuntos aleatórios, 𝑀0 tal que: 𝑀0 = 𝑀1 ⊃ 𝑀2 ⊃ ⋯ ⊃ 𝑀𝑚0 , em que 𝑀𝑖 = {𝑒𝑀(𝑖) , … , 𝑒𝑀(𝑚0) } e 𝑚0 é o número de elementos em M0. Logo 𝑒𝑀(0) = 𝑒𝑀(2) é o primeiro modelo a ser eliminado no caso de 𝐻0,𝑀1 ser rejeitada, 𝑒𝑀(3) = 2 é o segundo.

(43) 31. modelo e assim por diante. Considere 𝑃𝐻0,𝑀1 como o p-valor associado à hipótese nula, convencionando que 𝑃𝐻0,𝑀𝑚 ≡ 1. O p-valor do MCS para o modelo 𝑒𝑀(𝑖) ∈ 𝑀0 é definido por 0. 𝑝̂ 𝑒𝑀 ≡ 𝑚𝑎𝑥𝑖≤𝑗 𝑃𝐻0,𝑀1 . Como 𝑀𝑚0 consiste em um único modelo, a hipótese nula 𝑗. 𝑃𝐻0,𝑀𝑚 simplesmente diz que o último modelo sobrevivente é tão bom como ele mesmo. 0. Hansen, Lunde e Nason (2011) provam que, estando os elementos de 𝑀0 indexados por 𝑖 = ∗ ̂1−𝑎 1, … , 𝑚0 , o p-valor do MCS, 𝑝̂𝑖 , é tal que 𝑖 ∈ 𝑀 , se e somente se 𝑝̂𝑖 ≥ 𝛼, para qualquer 𝑖 ∈. 𝑀0 . Desta forma fica claro que os p-valores individuais do MCS facilitam a determinação de ∗ ̂1−𝑎 se um objeto particular está dentro do 𝑀 ou não, para qualquer α.. A interpretação de um p-valor do MCS é análoga a de um p-valor clássico. A analogia é a de que um intervalo com (1-α) de confiança contenha o verdadeiro valor do parâmetro com uma probabilidade de pelo menos (1-α). O p-valor do MCS não pode ser interpretada como a probabilidade de que um modelo é o melhor modelo, mas sim como a probabilidade de que o conjunto de modelos restante contenha 𝑀 ∗ . 3.4.2. Teste de Habilidade Preditiva Superior. Quando se deseja testar a habilidade preditiva superior, a pergunta de interesse é se alguma previsão alternativa é superior a um benchmark, ou de forma equivalente, se o melhor modelo preditor alternativo é melhor que o benchmark. O 3.3.2. Teste. de. habilidade. preditiva. superior, ou Superior Predictive Ability Test (teste SPA), é um teste que pode ser utilizado para comparar a performance preditiva do benchmark com m previsões alternativas em que m é um número fixo. As previsões são comparadas utilizando-se uma função de perda predefinida, e o “melhor” modelo é o que apresenta a menor perda esperada. Permita que 𝐿(𝑌𝑡 , 𝑌̂𝑖,𝑡 ) seja a perda do modelo i no instante t caso o modelo gere a previsão 𝑌̂𝑖,𝑡 , quando o verdadeiro valor realizado foi 𝑌𝑡 . Para simplificação notacional defina 𝐿𝑖,𝑡 ≡ 𝐿(𝑌𝑡 , 𝑌̂𝑖,𝑡 ). No tempo t, a performance do modelo k, relativa ao modelo 0 (benchmark) pode ser definida como: 𝑑𝑘,𝑡 ≡ 𝐿0,𝑡 − 𝐿𝑘,𝑡 . A pergunta de interesse é se algum dos modelos k = 1, 2, ... , m é melhor do que o modelo 0. Definindo 𝜇𝑘 ≡ 𝐸(𝑑𝑘,𝑡 ), para analisar esta questão formula-se a hipótese testável de que o.

(44) 32. modelo benchmark é o melhor modelo de previsão. Já que um valor positivo de 𝜇𝑘 corresponde ao modelo k sendo melhor que o benchmark, deseja-se testar a hipótese nula: 𝐻0 : 𝜇𝑘 ≤ 0, ∀𝑘 = 1, … , 𝑚 Enquanto o problema de igualdade de habilidade preditiva de Diebold e Mariano (1995) apresenta uma hipótese nula simples, a hipótese nula derivada do problema de SPA é composta, o que traz uma dificuldade para o teste de hipóteses pois neste último caso “a distribuição assintótica não é única sob a hipótese nula” (HANSEN 2005, v.23, p.366, tradução nossa). Hansen (2005) mostra que a abordagem utilizada no reality check (RC) de White (2000), baseada em least favorable configuration5, tem um poder de teste que tende a zero quando se adicionam previsões alternativas ruins. Uma maneira de testar a hipótese nula acima, é considerando a estatística: 𝑇 1/2 𝑑̅𝑘 , 0], ̂𝑘 𝑘=1,…,𝑚 𝜔. 𝑚𝑎𝑥 [ max. 𝑇𝑇𝑆𝑃𝐴 ≡. em que 𝜔 ̂ 𝑘2 é um estimador consistente para a variância de 𝑇 1/2 𝑑̅𝑘 e 𝑑̅𝑘. é a performance relativa média do modelo k, ou seja, 𝑑̅𝑘 ≡ 𝑇 −1 ∑𝑇𝑡=1 𝑑𝑘,𝑡 . Embora Hansen (2005) não prove que 𝑇𝑇𝑆𝑃𝐴 domina a estatística 𝑇𝑇𝑅𝐶 de White (2000) em termos de poder, a primeira tem poder maior que a segunda na maioria dos casos, a não ser no caso não usual em que a melhor performance de previsão é associada a uma maior variância. Hansen (2005) prova que 𝜇̂ 𝑐 leva a uma estimativa consistente da distribuição assintótica da estatística de teste, e também a um p-valor consistente.. 3.5 Função de perda Tal como definido em Elliott e Timmermann (2008), a função de perda descreve em termos relativos quão dispendiosa qualquer previsão é de acordo com a variável realizada (y) e possivelmente outros dados observados. Dito de outra forma, é um método formal de atribuir custos para erros de previsão de diferentes sinais e magnitudes. Formalizando o problema, a função de perda é uma função 𝜁(𝑓, 𝑌, 𝑍) que mapeia os dados (Z), a variável realizada (Y), e a previsão pontual (𝑓), para a reta dos números reais. O objetivo do previsor é utilizar as realizações da variável aleatória Z para prever o valor da variável aleatória Y. Z é definido no conjunto de informações 𝜓𝑡 enquanto que Y está definido no conjunto de 5. Uma explicação mais detalhada desta abordagem e de suas propriedades estatísticas é encontrada em Hansen (2003)..

(45) 33. informações 𝜓𝑡+ℎ . Z usualmente compreende valor do presente e passado da variável que se deseja prever (Y), além do presente e passado de outras variáveis explicativas (X), de forma que {𝑍}𝑇𝑡=1 = {𝑌, 𝑋}𝑇𝑡=1 . Consideram-se z e y como realizações das variáveis aleatórias Z e Y, respectivamente. A previsão pontual 𝑓(𝑧) depende de um conjunto de parâmetros desconhecidos, 𝜃, estimado com os dados disponíveis. O que pode ser enfatizado através da notação 𝑓(𝑧, 𝜃). A função de perda Mean Squared Error (MSE) é, provavelmente, a função mais comumente utilizada em trabalhos acadêmicos e, seguindo a notação apresentada aqui, pode ser representada pela equação (5): 𝜁 (𝑓(𝑍, 𝜃 ), 𝑌, 𝑍) ≡ (𝑌 − 𝑓 (𝑍, 𝜃 ))2. (5). Parte da popularidade desta função se dá ao fato de “não possuir nenhum parâmetro desconhecido e que a previsão ótima é simplesmente a média condicional de Y” (ELLIOTT e TIMMERMANN, 2008, p.15, tradução nossa). Função de Perda Assimétrica De acordo com Elliott e Timmermann (2008), devem ser usadas informações econômicas sobre o problema da previsão para orientar a escolha da função de perda em diferentes situações. Dentre os critérios para a escolha da função de perda, possivelmente a questão mais relevante diz respeito ao custo relativo de a previsão sobrestimar ou subestimar a variável realizada, ou seja, com base em informações de natureza econômica, deve-se decidir se a perda deve ser assimétrica. Zarnowitz (1985) encontra evidências de que entre diversas variáveis macroeconômicas, a inflação é a que obteve o maior número de previsões viesadas. As preferências, quanto ao estabelecimento de metas de baixa inflação do banco central de um país, devem refletir o desejo da população e a importância que esta dá para uma inflação baixa (KILIAN e MANGANELLI, 2007). Desta forma, deve haver um custo político alto quando o banco central cria expectativas de inflação baixa e a inflação realizada se mostra acima do previsto. Elliott, Komunjer e Timmerman (2008) analisaram a racionalidade dos agentes econômicos envolvidos no processo de previsão macroeconômica (produção e inflação) e, com base nos resultados empíricos para dados norte-americanos, concluíram que uma previsão de inflação abaixo da realizada.

Referências

Documentos relacionados

O direito tributário tem na legalidade um princípio basilar de toda sua estrutura jurídica, tendo exigências específicas para a aplicação da lei tributária, de

Um guia de onda é uma região de um substrato em que o índice de refração é maior do que em outra, de tal modo que a luz (ou uma onda eletromagnética), possa ser confinada e

A partir desses pressupostos, desenvolveu-se aqui uma proposta de formação inicial e continuada de professores, visando à utilização de geotecnologias para o ensino

Para este grupo de frutas, a forma mais fácil para obtenção do suco é a trituração em liquidificador com adição de uma pequena porção de água. Após a trituração, filtra-se

À premência da adoção da perspectiva social na Constituição, reconhecendo a organização da sociedade em grupos que mereciam representação, expandindo direitos trabalhistas

Tendo como referência a letra da música Camaro Amarelo, julgue os itens de 83 a 85 e faça o que se pede no item 86, que é do tipo D.. 83 Nas canções Camaro Amarelo e Cuitelinho,

Um dos principais objetivos deste trabalho é produzir conhecimento sobre o comportamento do consumidor, através de sua reação às exposições que lhe são propostas. O objetivo

Devido ao seu impacto frente ao projeto e operação de sistemas de separação por membranas, uma vez que ela afeta a definição do pré-tratamento, limpeza das