• Nenhum resultado encontrado

3. METODOLOGIA DA PESQUISA

3.2. A Regressão que Passa pela Origem

3.2.1. Calculando os Parâmetros

Em um modelo de regressão linear de duas variáveis assume a seguinte forma: Como também, há ocasiões que a função de regressão pode assumir a seguinte forma:

Nesse modelo, adota-se o caso de regressão que passa pela origem, que é o caso em que intercepto está ausente ou é igual a zero.

O modelo de formação de preços de ativos (CAPM) pode ser expresso como: onde:

De acordo com Gujarati (2011, p.166), sob a hipótese de eficiência de mercado, o CAPM postula que o prêmio de risco esperado do i-ésimo ativo é igual ao coeficiente beta desse ativo multiplicado pelo prêmio de risco esperado de mercado .

De forma prática e empírica, o modelo de formação de preços de ativos pode ser expresso como:

ou

Se o CAPM for válido, teremos nessa ultima equação um valor esperado para igual a zero, como também teremos tal ilustração:

Figura 9 – Modelo de Mercado

Na equação (6.2.5), pode-se observa que a variável dependente Y é e a variável explanatória X é e não . Com isso, para fazer uma regressão, é primeiramente necessário estimar o .

De maneira a estimar a modelos como a equação (6.2.2), passaremos à função de regressão amostral (FRA):

Aplicando o método MQO na equação (6.2.6), é obtido as formulas abaixo, para o e sua variância:

onde é estimado por:

Quando comparado com as fórmulas obtidas em um modelo onde o intercepto está presente, observam-se algumas diferenças:

β Linha Característica 0 Ri - rf Fonte: Gujarati, 2011

onde é estimado por:

Pode-se observar que as diferenças entre os dois conjuntos de formulas estão: no modelo em que o intercepto está ausente usa-se a soma bruta dos quadrados e a multiplicação entre as variáveis, e, no modelo em que o intercepto está presente, usa-se a soma ajustada dos quadrados e a multiplicação entre as variáveis. Observa-se também que para o calculo de no modelo com o intercepto ausente, o grau de liberdade é (n – 1), já no modelo com intercepto o grau de liberdade utilizado é (n – 2).

No modelo em que o intercepto está ausente, o coeficiente de determinação convencional (r2) não é adequado para as estimações com o intercepto ausente. No

entanto, é possível calcular para esse modelo o que é conhecido como r2 bruto:

3.3. Critérios de Avaliação

3.3.1. Critérios Estatísticos

3.3.1.1. Coeficiente de Determinação r2

O coeficiente de determinação r2 é uma medida descritiva da qualidade do ajustamento do modelo que nos diz quanto à linha de regressão amostral ajusta-se aos dados. Em geral o modelo deve-se ajustar aos dados para que possamos representá-los através de uma equação.

O coeficiente de determinação representa a proporção (ou porcentagem) da variação total em Y explicada pelo(s) X(s) no modelo de regressão, ou seja, representa uma medida de intensidade da relação linear entre as variáveis escolhidas para comporem o modelo de regressão.

Ex. r2 = 0,54 54% das variações de Y são atribuídas a variações da variável X.

3.3.1.2. Teste de F-Snedecor

O Teste de F tem por finalidade testar o efeito conjunto das variáveis explicativas sobre a variável dependente. Isso significa verificar se pelo menos uma das variáveis explicativas do modelo exerce efetivamente influência sobre a variável dependente. O teste de F implica em dizer se o modelo estimado existe ou não.

Interpretação: admita o modelo:

Teste de hipótese: Aceita H0 H0: β1= β2=...=0 Rejeita H0 Teste de F – Snedecor (aproximação gráfica) H0: 1= 2=... k = 0 HA: Pelo menos um i ≠ 0 Fc 0

Se Fcal > Ftab rejeita-se a hipótese nula, ou seja, as variáveis explicativas

influenciam a variável explicativa ou pode-se afirmar que o modelo existe.

Se Fcal > Ftab aceita-se a hipótese nula, ou seja, as variáveis explicativas não

influenciam a variável explicativa.

3.3.1.3. Teste de t-Student

O teste de “t” de Student é usado para determinar se os parâmetros da amostra são significativamente diferentes dos parâmetros hipotéticos da população, sendo desconhecido o desvio-padrão da população.

Avaliação Gráfica do Teste de Hipótese utilizado a distribuição t-Student (aproximação gráfica)

Interpretação: O teste tcal é dado por:

Teste de hipótese: Aceita H0 95% Rejeita H0 Rejeita H0 2,5% 2,5% - tc 0 + tc H0: = 0 HA: ≠ 0

Se tcal ≥ ttab, rejeita-se a hipótese nula (H0), ou seja, o parâmetro avaliado é

significativo, onde dessa forma vale afirmar que existe uma correlação entre as variáveis avaliadas.

Se tcal ≥ ttab, aceita H0, ou seja, o parâmetro analisado não é significativo,

onde dessa forma vale afirmar que não existe uma correlação entre as variáveis avaliadas.

3.3.1.4. Intervalo de Confiança

O intervalo de confiança, para o parâmetro estimado, fornece uma classe ou limites dentro dos quais o verdadeiro valor do parâmetro deva estar com um coeficiente de confiança de, digamos, 95% de probabilidade.

3.3.2. Critério Econométrico

3.3.2.1. Normalidade dos Resíduos

Detecta-se que há uma distribuição normal dos resíduos através do teste de normalidade de JARQUE-BERA (JB), onde este é um teste assintótico, ou seja, para grandes amostras, e se baseia nos resíduos de MQO. Para que se possa analisar a normalidade de um modelo, observam-se os valores obtidos e plotados na tabela da estatística descritiva e assim, observar a probabilidade da aceitação ou rejeição da hipótese nula.

3.3.2.2. Heterocedasticidade

O pressuposto acerca da homoscedasticidade é a de variância constante, isto é, a variância do erro é a mesma em todas as observações. Em caso de variância não constante é denominado heteroscedasticidade.

A natureza da heteroscedasticidade são: a) modelos de aprendizagem do erro (o erro diminui a medida em que o tempo passa); b) renda discricionária; c)

técnica de coleta de dados; d) presença de “outliers”; e) modelo com erro de especificação.

Nesse trabalho, será detectado se há presença de heterocedasticidade através do teste de Glejser (1969) e White (1980). Nesse caso, para o teste de Glejser a interpretação é que se β se revelar estatisticamente significativo, esta sugeriria que a heteroscedasticidade está presente nos dados. Se β se mostrar não significativo, pode-se aceitar a hipótese de homoscedasticidade.

3.3.2.3. Autocorrelação dos Resíduos

O problema da autocorrelação residual é a violação do pressuposto que o erro associado a uma observação é estatisticamente independente do erro associado à outra observação, ou seja, a ocorrência de um erro ui, não afeta a

possibilidade de ocorrência de outro valor em ui.

A consequência de autocorrelação no modelo é bem semelhante ao de heteroscedasticidade, ou seja, o estimador é linear, não-tendencioso, mas não é eficiente (não tem variância mínima).

Para que se possa detectar a presença de autocorrelação, no modelo utilizado desde o inicio desse trabalho, será usado o teste de Durbin-Watson e o teste de Breusch-Godfrey (BG).

Documentos relacionados