• Nenhum resultado encontrado

3 METODOLOGIA

3.5 Procedimentos econométricos

A presente seção é destinada à descrição dos principais procedimentos realizados na estimação dos modelos de regressão. Como a amostra é composta por diversas empresas do mercado segurador brasileiro ao longo de 18 períodos semestrais, a técnica estatística mais adequada é a de dados em painel.

Para verificar se houve atendimento aos pressupostos do estimador dos Mínimos Quadrados Ordinários (MQO), foram realizados os seguintes testes/estatísticas: (a) testes Shapiro-Francia e Shapiro-Wilk, para avaliar se os resíduos possuem distribuição normal; (b) teste de White, para verificar a ausência de heterocedasticidade; e (c) estatística VIF (variance inflating factor), para verificar a ausência de multicolinearidade.

Com base nos testes de Shapiro-Francia e Shapiro-Wilk foram verificados, em todos os modelos, a aceitação ou a rejeição da hipótese nula de normalidade. Entretanto, em função da grande amostra da pesquisa, com base no teorema do limite central, Gujarati (2006) afirma que os estimadores do método MQO têm uma distribuição assintoticamente normal quando a distribuição de sua amostra tende a aproximar-se da distribuição normal na medida em que o tamanho da amostra n aumenta indefinidamente, ou seja, os estimadores têm distribuição normal quando se trata de grandes amostras.

Foi realizado o teste introduzido por White (1980) para verificar a presença da heterocedasticidade dos resíduos. Quando detectada a heterocedasticidade, foram utilizados os

erros-padrão robustos. De acordo com Cameron e Trivedi (2010), este procedimento permite a obtenção de estimativas robustas quando os termos de erro são heterocedásticos.

Para verificar a ausência de multicolinearidade foram analisadas as correlações entre as variáveis explicativas por meio da estatística VIF. Pela estatística VIF, números maiores do que 10 (Gujarati, 2006) ou do que 5 (Fávero et al., 2009) apresentam indícios de multicolinearidade. Gujarati (2006, p. 513) afirma que em modelos de regressão que se alicerçam em dados em painel, a mesma unidade de corte transversal é acompanhada ao longo do tempo. O autor complementa afirmando que, em síntese, os dados em painel têm uma dimensão espacial e outra temporal.

Wooldridge (2006) afirma que os dados em painel possuem duas dimensões, série temporal e corte transversal, as quais permitem analisar relações dinâmicas no tempo e no espaço. Há duas abordagens de estimação dos dados em painel: (a) a de efeitos fixos; e (b) a de efeitos aleatórios. Além destas duas abordagens, também são analisados os dados agrupados (ou dados empilhados). Também conhecidos como pooling, os dados agrupados não são considerados um modelo de dados em painel, mas são utilizados para explicar as diferenças introduzidas pelos modelos de efeitos fixos e de efeitos aleatórios. O empilhamento dos dados consiste na reunião de séries temporais e transversais, como nos dados em painel, entretanto não são controladas as variações por indivíduo ou por tempo.

Conforme Gujarati (2006, p. 526), “No modelo de efeitos fixos, o intercepto do modelo de regressão pode diferir entre indivíduos para levar em conta o fato de que cada unidade individual ou de corte transversal pode ter algumas características especiais.”. Dessa forma, no modelo de efeitos fixos, a estimação é feita assumindo que a heterogeneidade dos indivíduos se capta pela constante, a qual é diferente de indivíduo para indivíduo.

Segue equação para o modelo de efeitos fixos:

�� = � + �� + �� + ⋯ + � ��� + ��� (10)

Sendo que:

Yit = variável dependente; β0i = intercepto; βk = coeficiente angular; Xk = variáveis explicativas;

No modelo de efeitos aleatórios (ou modelo de componentes de erros), é pressuposto que o intercepto de uma unidade individual é uma extração aleatória de uma população muito maior com um valor médio constante (Gujarati, 2006). Neste modelo as diferenças dos indivíduos captam-se pelo termo do erro.

Segue equação para o modelo de efeitos aleatórios:

�� = + �� + �� + ⋯ + � ��� + ��� (11)

Sendo que:

Yit = variável dependente; β0 = intercepto; βk = coeficiente angular; Xk = variáveis explicativas;

e vit = termo de erro composto.

Conforme Gujarati (2006), o erro composto é formado por mais de um elemento de erro, sendo que um é proveniente do corte transversal ou específico dos indivíduos e o outro é proveniente da combinação da série temporal e do corte transversal.

Conforme observado na equação 10 de efeitos fixos, cada unidade de corte transversal possui um intercepto fixo no tempo (β0i), enquanto na equação 11 de efeitos aleatórios, há um valor

médio (β0) para o intercepto.

Para cada um dos oito modelos de regressão definidos nesta tese, visando à identificação de um modelo que mais se ajusta aos dados (regressão agrupada, painel com modelo de efeitos fixos, ou painel com modelo de efeitos aleatórios) foram realizados testes auxiliares, tais como: (a) Chow; (b) Breusch-Pagan; e (c) Hausman.

O teste de Chow objetiva verificar a adequação dos modelos de dados em painel. De acordo com Baltagi (2005), esse teste foi adaptado com o objetivo de auxiliar a identificação da existência dos efeitos fixos, em relação à regressão agrupada.

Para dados em painel, as hipóteses do teste de Chow são as seguintes: H0: Os interceptos são iguais.

H1: Os interceptos são diferentes.

O teste de Breusch-Pagan objetiva auxiliar na identificação da presença do erro composto, por meio da heterocedasticidade dos resíduos (Baltagi, 2005).

As hipóteses do teste de Breusch-Pagan para dados em painel são as seguintes: H0: O erro é homocedástico.

H1: O erro é heterocedástico.

O teste de Hausman ajuda a decidir qual dos dois modelos de dados em painel apresenta melhor ajustamento aos dados. De acordo com Baltagi (2005), o teste de Hausman objetiva avaliar se o modelo de efeitos aleatórios é consistente, permitindo a escolha entre os modelos de efeitos fixos e aleatórios.

As hipóteses do teste de Hausman para dados em painel são as seguintes: H0: O estimador de efeitos aleatórios é consistente.

H1: O estimador de efeitos aleatórios é inconsistente.

Para as hipóteses de pesquisa H7, H8, H9 e H10 foi utilizado o critério de informação de Akaike

para comparação das estatísticas resultantes das regressões estimadas.

De acordo com Gujarati (2006), o critério de informação de Akaike é um índice utilizado para escolher um entre dois ou mais modelos alternativos, sendo que aquele que apresentar o menor índice é o indicado como o modelo mais ajustado.

Para as hipóteses H7 e H8, foi verificado o critério de informação de Akaike para apontar se

houve poder incremental dos accruals na previsão de fluxos de caixa operacionais. Para as hipóteses, H9 e H10, o critério de Akaike foi utilizado para verificar qual variável possui a maior

capacidade de prever fluxos de caixa operacionais: (a) o resultado líquido contábil; (b) os fluxos de caixa; ou (c) os accruals.

Para verificar a relação existente entre as variáveis que compõem esta tese foram realizadas análises descritivas e análise de dados em painel. O software utilizado nas análises foi o Stata© 12.