• Nenhum resultado encontrado

CAPITULO III: METODOLOGIA DA PESQUISA

3.11. Validação do Modelo

1 , , x TC IP CR T i j t t p i j t t j t t

   Equação 13

3.10. Análise de Decomposição de Variância

Outro modo de analisar os resultados do modelo é através da análise da decomposição da variância. Esta técnica mostra que percentagem da variância do erro de previsão decorre de cada variável endógena ao longo do tempo de previsão. De tal modo, a mesma fornece informações relevantes relacionadas à importância de uma determinada variável nas alterações de outra variável do modelo (Bueno, 2008).

3.11. Validação do Modelo

A questão da validação do modelo é extremamente importante para se poder averiguar se os resultados obtidos pelos testes são confiantes e evitar que se obtenham resultados espúrios. Entretanto, uma vez que a regressão é então baseada no método MQO, havendo a necessidade de se efetuar o teste para que se assegure de que os pressupostos que estão por detrás do método não sejam violados, dando ênfase aos testes de normalidade, multicolineariade, heteroscedasticidade e autocorrelação.

Entretanto, caso não seja prevista a ocorrência destes testes de validação do modelo, os estimadores MQO tornam-se lineares e não tendenciosos, bem como consistentes e com distribuição normal assintótica, deixando de ser eficientes (isto é, de ter variância mínima).

Assim sendo, em síntese se insistirmos em empregar os habituais procedimentos de teste apesar da heterocedasticidade, todas as conclusões ou interferências que fizermos podem ser enganosas. Esta sessão constitui um potencial para minimizar possíveis problemas graves ao estimar os modelos económicos, assim o pesquisador precisa saber se esta em cada uma situação, e caso se a sua presença for detectada, então é preciso adoptar providências correctivas, como a regressão de mínimos quadrados ponderados, respecificação do modelo, retirada de algumas variáveis, transformação dos dados entre outras técnicas consitentes para a examinação do modelo econométrico estimado.

3.11.1. Teste de Normalidade

No contexto geral, o teste de normalidade é usado para observar se os resíduos encontram-se normalmente distribuídos. Entretanto, visualizando a literatura que independentemente de os resíduos estarem ou não normalmente distribuídos, os estimadores do MQO continuam sendo não viesados, consistentes e eficientes mas torna supérflua o uso de estatísticas t e F para verificar a validade das hipóteses levantadas.

A presença de resíduos distribuídos normalmente eles se tornam os melhores estimadores lineares não tendenciosos e portanto os melhores estimadores dos parâmetros

^

 na equação de

cointegração estão normalmente distribuídos, com média igual ao verdadeiro  .

Se uma determinada variável apresentar o plot em forma de sino no histograma bell shaped e com o p-value de Jarque-Bera maior que o valor crítico de 5%, logo concluir-se-á que os resíduos estão normalmente distribuídos, pois a hipótese nula de que a distribuição dos resíduos é normal não será rejeitada.

O teste de JB é conhecido por ter boas propriedades para verificar normalidade, é claro e simples de calcular e é muito utilizado no contexto de regressão em econometria. Uma limitação é que somente pode ser utilizado na verificação de normalidade e trata-se de um teste assintótico ou de grandes amostras.

3.11.2. Teste de Autocorrelação

A autocorrelação dos resíduos é um problema importante na Econometria. A autocorrelação dos resíduos ocorre quando existe dependência temporal dos valores sucessivos dos resíduos. Assim, eles apresentam correlação entre si.

A presença de autocorrelação residual faz com que ocorra uma piora na eficiência das estimativas dos parâmetros. Ou seja, eles não apresentam o atributo desejável da variância mínima. Além disso, eles ficam com o seu desvio padrão enviesado, isto faz com que os testes t e F e os cálculos de intervalos de confiança sejam prejudicados.

Entretanto, estar-se-á na presença de autocorrelação (positiva de primeira ordem) se o termo de erro de um período estiver positivamente correlacionado com o termo de erro do período anterior. Tal como apontam diversas literaturas, existem procedimentos para a sua deteção, sendo a primeira pode ser observado através da sua hipótese baseando no teste de Durbin-Watson, que postula a seguinte hipótese nula que não existe autocorrelação entre os resíduos. Para rejeição desta hipótese observar-se-á o Durbin Watson estatístico (d) que deverá ser maior que o Durbin Watson crítico (dL).

Uma grande vantagem da estatística d é que ela baseia nos resíduos estimados, que são calculados rotineiramente na análise de regressão e podem ser aplicadas em grandes amostras com maior facilidade. Embora comumente usada, estas apresentam como premissas que o embrasam, a importância de inclusão do termo intercepto no modelo, as variáveis explanatórias devem ser não estocásticas ou fixadas em amostras repetitivas, não podem ser empregues para detectar esquemas auto-regressivos de ordens mais elevadas dos termos de erro, os termos de erro devem ser normalmente distribuidos, não leva em conta a omissão ou falta de observações, se o seu valor cai na zona de indecisão, não pode-se concluir se há ou não autocorrelação (de primeira ordem)

Para evitar algumas armadilhas do teste d de autocorrelação de Durbin-Watson, os estatísticos Breusch e Godfrey desenvolveram um outro teste que apesar de ser conhecido por teste BG, também é visto por teste LM, que permite a existência de regressores não estocásticos, como o valor não desfasado do regressando; esquemas auto-regressivos de ordem mais elevada e

existência de médias móveis simples ou de ordem mais elevada de termos de ruído branco, como alega Gujarati (2006).

3.11.3. Teste de Heteroscedasticidade

Segundo Gujarati (2000), o teste de heterocedasticidade permite verificar a homoscedasticidade, isto é, se a variância do termo de erro é constante. Na presença de heteroscedasticidade, os coeficientes continuam não viesados e consistentes, porem ineficientes, uma vez que a variância não é mínima. Para além disso todas as conclusões e inferências baseadas nas estatísticas t e F tendem a ser enganosas.

Deste modo, requer-se então que para a mesma sequência da variável explicativa se tenha diferentes valores da variável dependente e, consequentemente diversos valores para o termo de erro, mas que no entanto a dispersão dos mesmos seja sempre igual.

Para detetar se a variância é constante ou não, usa-se o método gráfico e o teste de WHITE retirado do pacote Eviews. Entretanto, a regra de decisão, rejeitar-se-á a hipótese nula de que a variância seja constante se a probabilidade (p-value) do F estatístico for menor que o nível de significância de 5%, conclui-se assim que a suposição da homoscedasticidade foi violada. Portanto, cabe acautelar que por vezes, o teste de White pode ser um teste de (pura) heterocedasticidade ou de erro de especificação ou de ambos.