• Nenhum resultado encontrado

Análise de regressão linear

No documento 2017AlineLiotto (páginas 57-59)

4. RESULTADOS

4.3 Parâmetros de análise

4.3.2 Análise de regressão linear

Para Hair et al. (2009, p. 154) a análise de regressão múltipla é “uma técnica estatística que pode ser usada para analisar a relação entre uma única variável dependente (critério) e várias variáveis independentes (preditoras)”. Cada uma das variáveis independentes apresentará um peso que mostra qual é a contribuição relativa de cada variável para a previsão geral, facilitando assim, a interpretação da influência de cada variável independente nas variações da variável dependente.

A análise dos resultados da regressão linear múltipla envolve diversos elementos. O ponto de partida da análise dos resultados da regressão é a análise dos resíduos. Os resíduos são as diferenças encontradas entre o valor da variável dependente predita em relação ao valor das variáveis dependentes utilizadas para a previsão (Yi – Ŷi). Seu exame é “útil para verificar se

um determinado modelo de regressão é apropriado para os dados” (LOESCH; HOELTGEBAUM, 2012, p. 31). O teste dos resíduos, para validação do modelo, envolve as seguintes condições (LOESCH; HOELTGEBAUM, 2012): a) os resíduos devem possuir distribuição normal (teste Kolmogorov-Smirnov); b) os resíduos devem ser aleatórios (teste das repetições); c) não deve existir auto correlação entre os resíduos (teste Durbin-Watson); d) a variância dos resíduos deve ser homogênea (homocedasticidade - teste de Levene); e, e) detecção de resíduos discrepantes (outliers), que constituem valores afastados do centro de pontos X ou que possuem força de alavancagem em relação aos valores Y. Os autores recomendam a remoção de outliers quando estes derivam de erros de amostragem.

Além do teste dos resíduos, deve-se verificar problemas de colinearidade e multicolinearidade. Multicolinearidade ocorre quando “as variáveis independentes possuem relações lineares exatas ou aproximadamente exatas” (LOESCH; HOELTGEBAUM, 2012, p. 39). Quando a relação linear está restrita a duas variáveis independentes têm-se a colinearidade (HAIR et al., 2009). A colinearidade ou multicolinearidade “afeta significativamente os coeficientes da regressão, alterando o valor e até o sinal em relação ao que ocorreria se não houvesse esse problema” (LOESCH; HOELTGEBAUM, 2012, p. 39). Os autores

complementam que, quando há diagnóstico de multicolinearidade/colinearidade no modelo de regressão a análise do coeficiente de correção, da significância estatística dos coeficientes e a interpretação dos efeitos isolados de cada variável ficam prejudicados (LOESCH; HOELTGEBAUM, 2012). Um dos testes recomendados para detecção de multicolinearidade é o Variance Inflation Factor (VIF) das variáveis independentes do modelo. Como regra geral, VIF com valores menores do que 10 são aceitáveis. Valores superiores a 10 indicam problemas de multicolinearidade” (LOESCH; HOELTGEBAUM, 2012; HAIR et al.,2009). Hair et al., (2009) complementa que mesmo com um valor VIF de 10 sendo aceito como uma referência comum, este corresponderá a uma correlação múltipla entre variáveis de 0,95. Assim, os autores recomendam para que cada pesquisador determine o grau de colinearidade aceitável. Apontam que, em uma postura conservadora, o valor VIF deveria se posicionar abaixo de 5,3 o que indicaria correlações entre variáveis inferiores a 0,90.

Ainda, segundo Hair et al., (2009, p. 190) a maneira mais simples de identificar colinearidade é o “exame da matriz de correlação para as variáveis independentes. A presença de elevadas correlações (geralmente 0,90 ou maiores) é a primeira indicação de colinearidade substancial”.

Realizado o teste dos resíduos, parte-se para a interpretação da regressão linear. Os resultados devem ser analisados apreciando o coeficiente de determinação e o intercepto. Conforme Hair et al. (2009) o coeficiente de determinação representa a variação estimada da variável dependente por variação unitária da variável independente. De forma que, se “r” é percebido como estatisticamente significante (diferente de zero), o valor do coeficiente indica a extensão na qual a variável independente se associa com a dependente. A interpretação do intercepto é realizada de forma diferente. Segundo Hair et al. (2009) “o intercepto tem valor explanatório apenas dentro do domínio de valores para as variáveis independentes. Além disso, sua interpretação se baseia nas características da variável independente”. Dessa forma, compreende-se que o intercepto tem valor interpretativo somente quando zero é um valor conceitualmente válido para a variável independente (i.e., a variável independente pode ter um valor nulo e ainda manter sua relevância prática) (HAIR et al., 2009).

Em algumas análises de regressão que serão utilizadas nesta pesquisa o intercepto apresentará valor interpretativo. Será o caso de variáveis de escala nominal, conhecidas como variáveis indicadoras, de categoria, qualitativas ou binárias (dummies). Segundo Gujarati e Porter (2011) essas variáveis também podem compor modelos de regressão linear. Para que isso seja possível é necessário utilizar regressores qualitativos ou binários, assumindo o número 1 se a observação pertencer a determinada categoria e número zero se não pertencer àquela

categoria ou grupo (GUJARATI; PORTER, 2011). Exemplificando, os autores mencionam a situação em que os regressores identificam três regiões distintas. Para essa situação, o modelo considerará apenas duas variáveis dummies e não três, especificado pela equação:

! = " + #1$%2 i + #2$%3 i + &

Por meio dos coeficientes de determinação (r²) se calculam os níveis de significância. O r² “é uma medida da quantidade de variação em uma variável que é explicada pela outra” (FIELD, 2009). Para Hair et al. (2009, p. 150) o coeficiente de determinação (r²) é uma

medida da proporção da variância da variável dependente em torno de sua média que é explicada pelas variáveis independentes ou preditoras. O coeficiente pode variar entre 0 e 1. Se o modelo de regressão é propriamente aplicado e estimado, o pesquisador pode assumir que quanto maior o valor de r², maior o poder de explicação da equação de regressão e, portanto, melhor a previsão da variável dependente.

Hair et al. (2009) menciona ainda que há o coeficiente de determinação ajustado (r² ajustado) que constitui uma medida modificada do coeficiente de determinação, levando em conta o número de variáveis independentes incluídas na equação de regressão e o tamanho da amostra. Os autores explicam que esse coeficiente é útil em casos em que há a inserção de várias variáveis independentes. Quando isso ocorre o valor do r² tende a aumentar. Entretanto, o mesmo não ocorre com o coeficiente de determinação ajustado, sendo que o mesmo pode diminuir caso as variáveis independentes acrescentadas “tiverem pouco poder de explicação e/ou se os graus de liberdade se tornarem muito pequenos” (HAIR et al., 2009, p. 150).

No documento 2017AlineLiotto (páginas 57-59)