• Nenhum resultado encontrado

2. ACESSO À INFORMAÇÃO E DEMOCRACIA

5.1 ANÁLISE DE CORRELAÇÃO ENTRE AS VARIÁVEIS INDEPENDENTES

Passando à análise dos dados, identificamos que, tendo poucos indicadores por variáveis, não houve a necessidade de aplicação de análise fatorial, uma vez que o risco de incidência de multicolinearidade entre eles não justifica a perda de variância incorrida na variável dependente em função de se abrir mão de determinado preditor. Isso não significa não tomar os devidos cuidados na análise de correlação entre esses indicadores e o VIF, quando da regressão.

Por essa razão faz-se necessária uma avaliação de correlação entre todas as variáveis independentes, de forma a indicar a ausência de multicolinearidade entre tais indicadores, o que enviesaria o resultado das análises, comprometendo as conclusões.

5.1.1 Correlação Entre as Variáveis Independentes

O primeiro passo para a verificação de ocorrência de multicolinearidade se dá por análise dos coeficientes de regressão entre as variáveis independentes. Conforme Hair Jr. et

al. (2009, p. 174), a “[...] maneira mais simples e óbvia de identificar a colinearidade se dá ao

examinar a matriz de correlação de variáveis independentes. A presença de alta correlação

(geralmente maior de ,90) é o primeiro indicativo de alta colinearidade”.

61 Assume essa característica ao tratar determinado dado qualitativo como presente ou ausente em um se de u a ... va iável ét i a espe ial utilizada para

Para tal verificação, em função de a priori não se ter assumido a linearidade da relação, em especial por contar com uma variável dummy, procedemos teste de correlação entre as variáveis independentes utilizando dois coeficientes, de Pearson62 e de Spearman63. O primeiro avalia uma relação entre variáveis métricas, enquanto o segundo é utilizado para o estabelecimento de correlação de dados ordenados por variáveis não paramétricas, não requerendo a suposição de relação de linearidade entre as variáveis. Abaixo seguem as tabelas decorrentes dos testes sumarizadas (quadros completos encontram-se no Anexo E).

Tabela 1 – Sumário do coeficiente de correlação de Pearson (r).

IDHM Emprego Gini Dívida Idosos Gênero Urbanos Pop.

IDHM 1 Emprego ,249* 1 Gini -,408* -,291* 1 Dívida -,218* -,224* ,085 1 Idosos ,238* ,275* -,423* ,172* 1 Gênero ,180* -,132* -,028* ,140* ,281* 1 Urbanos ,558* -,198* -,174* -,099* -,070* ,355* 1 Pop. ,177* -,056* ,136* ,306* -,050* ,203* ,179* 1

*Correlação significativa no nível bicaudal de pelo menos 0,05 Fonte: Análise em IBM SPSS 22.0

Tabela 2 – Sumário Coeficiente de Correlação de Spearman (ρ).

IDHM Emprego Gini Dívida Idosos Gênero Urbanos Popul. Dummy

IDHM 1 Emprego ,297* 1 Gini -,424* -,325* 1 Dívida -,258* -,232* ,115* 1 Idosos ,218* ,263* -,387* ,177* 1 Gênero ,197* -,182* -,049* ,182* ,307* 1 Urbanos ,562* -,240* -,179* -,118* -,059* ,388* 1 Popul. ,042* -,288* ,341* ,079 -,380* ,361* ,334* 1 Dummy ,130* ,063* -,067* ,066 ,041 ,073* ,073* ,023 1 * Correlação significativa no nível bicaudal de pelo menos 0,05

Fonte: Análise em IBM SPSS 22.0

62 O coeficiente de correlação de Pearson (r de Pearson), também denominado por coe i ie te de o elação p oduto- o e to, ede o g au da o elação li ea e t e duas va iáveis ua titativas. u í di e

adimensional com valores situados ente -1,0 e 1.0 inclusive, que reflete a intensidade de uma relação linear entre dois conjuntos de dados.

63 O coe i ie te de o elação de postos de pea a ρ de pea a é uma medida de o elação ão pa a ét i a. o o t á io do oe i ie te de o elação de Pea so , ão e ue a suposição de ue a elação e t e as va iáveis é li ea e ue estas seja ua titativas. Pode se usado pa a as va iáveis edidas o nível ordinal.

Em nenhum dos casos verifica-se ocorrência de índice de correlação de magnitude significante como a apontada por Hair et al. (2009). Em todo o caso, essa é a primeira rodada de verificação, cabendo posteriormente na análise da regressão propriamente dita a avaliação da tolerância e do VIF.

Ainda, verifica-se a análise, em teste bicaudal, do próprio software SPSS em relação à significância individual de cada uma das variáveis independentes entre elas, em um intervalo de confiança de 95%. Vemos como conclusão os índices marcados com asteriscos nas duas tabelas acima, indicando que a relação entre as variáveis – interseções nas tabelas – é significante dado o quantitativo de casos verificados.

O software SPSS possui técnicas mais precisas para estimação dos valores necessários para a avaliação de significância, entretanto, o que se realiza é uma análise da distribuição da relação bivariada de cada par de variáveis, observando se elas se enquadram na distribuição t de Student64.

Matematicamente, avalia-se a suposição de uma hipótese 0 (H0) de que a significância estatística da relação entre as variáveis sob análise é nula. Isso de acordo com o grau de liberdade65 da verificação da hipótese. Assim, calcula-se o coeficiente t de Student, verificando se ele encontra-se fora do intervalo definido como a H0 sendo verdadeira. Satisfeita tal condição, dada a quantidade de casos, uma variável é significante na determinação da outra.

A estatística do teste é: t = r ((n-2)/(1-r2))½

Que tem distribuição t com n-2 graus de liberdade. Assim, dado o coeficiente de correlação (r) calculado, tem-se o resultado t, que deve ser comparado com a faixa de validação da hipótese nula, conforme tabela de distribuição t de Student, constante no Anexo F. Nesta há a definição para testes uni e bicaudal das faixas de validação da hipótese nula, de acordo com os intervalos de confiança, definidos nas colunas, e graus de liberdade, dados nas linhas.

Nas tabelas 1 e 2 temos a relação entre variáveis independentes. Por outro lado, efetuando-se a verificação da correlação entre as variáveis independentes e a dependente par a par, temos a correlação e significância das relações, dados os quantitativos de casos, nos

64 Trata-se de uma distribuição adaptada da curva normal ao número de ocorrências do caso analisado. Tal número implica determinado grau de liberdade, sendo que quanto maior o grau de liberdade, mais a

termos do Quadro 3. Nele, podemos observar que praticamente todas as variáveis independentes têm, individualmente, impacto na variável dependente com nível de confiança de pelo menos 95%, demonstrando sua correlação ser significante. A exceção fica por conta da variável fiscal. Interessante observar a variação do número de casos (N), dadas as ausências de alguns dados secundários.

Quadro 4 – Correlações e significâncias entre variáveis independentes e a dependente.

Índice de Transparência Índice de Desenvolvimento Humano do Município Correlação de Pearson ,313** Sig. (2 extremidades) ,000 N 1742 População Ativa Empregada Correlação de Pearson ,191** Sig. (2 extremidades) ,000 N 1742

Coeficiente de Gini Correlação de Pearson -,135**

Sig. (2 extremidades) ,000 N 1742 Dívida consolidada líquida/Receita corrente líquida Correlação de Pearson ,030 Sig. (2 extremidades) ,516 N 474 Percentual de idosos sobre a população total

Correlação de Pearson ,089** Sig. (2 extremidades) ,000 N 1742 Percentual de mulheres na população Correlação de Pearson ,126** Sig. (2 extremidades) ,000 N 1742 Percentual de pessoas que vivem na cidade

Correlação de Pearson ,121**

Sig. (2 extremidades) ,000

N 1742

População Municipal Correlação de Pearson ,192**

Sig. (2 extremidades) ,000

N 1743

** A correlação é significativa no nível 0,01 (2 extremidades). Fonte: Análise em IBM SPSS 22.0