• Nenhum resultado encontrado

4 RESULTADOS E ANÁLISES

4.3 METODOLOGIA DA ANÁLISE DISCRIMINANTE

4.3.1 Testes dos Pressupostos da Análise Discriminante

Normalidade Multivariada

Para testar o pressuposto da normalidade multivariada na distribuição dos dados da subamostra de análise foi utilizado o teste One-Sample Kolmogorov-Smirnov, em um nível 0,05 de significância, aplicado aos resíduos decorrentes da análise discriminante em cada exercício social. A hipótese subjacente a este teste é de que os dados da subamostra são normalmente distribuídos, ou seja, apresentam uma distribuição gaussiana.

Tabela 13 – Resultado dos Testes de Normalidade das Subamostras de Análise

Exercícios Sociais 2005 2006 2007

N 80 76 80

Parâmetros Normais Média -,5000 -,5000 -,5000

Desvio-padrão 1,02276 ,99568 1,00705

Diferenças mais extremas Absoluta ,102 ,118 ,073

Positiva ,074 ,118 ,073

Negativa -,102 -,050 -,063

Kolmogorov-Smirnov Z ,908 1,027 ,654

Asymp. Sig. (2-tailed) ,381 ,242 ,786

Fonte: Dados da pesquisa – SPSS

Os resultados das estatísticas apresentaram significâncias maiores que 0,05 para as subamostras nos três exercícios sociais, não podendo ser rejeitada a hipótese principal de

distribuição gaussiana. Portanto, considera-se satisfeito o primeiro pressuposto para a aplicação da análise discriminante.

Linearidade

A linearidade é um pressuposto implícito em todas as técnicas multivariadas baseadas em medidas correlacionais de associação (HAIR et al., 2009). Ela implica que a variação ocorrida na variável dependente (y) tenha uma associação direta com a variação nas variáveis independentes (x).

Matematicamente, a relação entre a variável dependente e as independentes é representada por uma função de primeiro grau. Isto significa que a relação entre a variável dependente e as variáveis independentes pode ser expressa em um diagrama por uma linha reta. Ressalta-se, entretanto, que, mais especificamente, a linearidade deve ocorrer nos parâmetros (nos β) e não necessariamente nas variáveis (y e x).

Neste estudo, nenhum dos parâmetros das variáveis, tanto a dependente quanto as variáveis independentes, tem formato do tipo exponencial, quadrático ou de outros tipos, que desviem da relação linear requerida. Portanto, considera-se atendido o pressuposto da linearidade.

Ausência de Outliers

A existência de outliers na subamostra pode causar vieses na estimação da função discriminante e, consequentemente, comprometer os resultados do estudo. São exemplos mais comuns desses vieses, os erros nos coeficientes da função e nos valores médios das variáveis. A fim de evitar problemas relacionados à estimação e validação da função, foram dispensados os tratamentos necessários a cada amostra para identificação e aplicação de ações corretivas, conforme item 3.3.2 Observações Atípicas (Outliers). A partir do tratamento dado às amostras, considera-se esse pressuposto atendido.

Ausência de Multicolinearidade

A multicolinearidade perfeita ou elevada entre as variáveis independentes pode ter efeito significativo sobre a estimação da função discriminante, resultando em coeficientes não confiáveis ou até mesmo com sinais errados. Pode, ainda, aumentar o erro-padrão e comprometer a capacidade de demonstrar que os coeficientes estimados são significativamente diferentes de zero (HAIR et al.2009).

A fim de identificar a presença de multicolinearidade perfeita ou elevada, são utilizadas as medidas de Tolerância e Fator de Inflação da Variância (VIF).

A Tolerância, conforme Hair et al. (2009), é uma medida direta de multicolinearidade que corresponde à variabilidade da variável independente selecionada que não é explicada pelas demais variáveis independentes.

2

R 1

Tolerância= − (50)

Onde R2 é a parcela da variável em estudo que é explicada pelas outras variáveis independentes.

Um dos indícios de multicolinearidade é a presença de elevadas correlações (geralmente acima de 0,9).

O VIF, por sua vez, é uma segunda medida de multicolineariade, e corresponde à inversa da Tolerância. Tal medida mostra que a variância de um estimador é inflada pela presença de multicolineariade

Tolerância 1

VIF = (51)

Uma referência de corte muito comum é um valor de Tolerância 0,10, que corresponde a um VIF de 10. Com um VIF de referência 10, essa Tolerância corresponderia a erros-padrão sendo “inflacionados” mais do que o triplo (3,16) do que seriam se não houvesse multicolinearidade. Portanto, pontos de atenção para verificar a presença de alta multicolinearidade, conforme Hair et al. (2009), são:

a. Valores de Correlação de Pearson maiores que 0,9 ; b. Valores de Tolerância menores que 0,1; e

c. Valores de VIF maiores que 10.

Na análise das amostras foi possível verificar que, com base nas medidas de Tolerância e VIF, não houve alta multicolineariade entre as variáveis em 2005. Porém, em 2006 e 2007, foram observadas as seguintes multicolinearidades:

Tabela 14 – Multicolinearidade entre as variáveis independentes das amostras anuais

Exercícios Tolerância VIF Variáveis Afetadas

2006 0,06 16,90 X15 e X16

2007 0,09 11,60 X2 e X3

0,01 134,56 X15 e X16

0,09 10,68 X14 e X19

Fonte: Dados da pesquisa

Como ação corretiva à multicolinearidade entre as variáveis do estudo, foi eliminada uma variável de cada par altamente correlacionado. Para isso, foi selecionada, em cada par de variáveis envolvidas, aquela que apresentou maior valor de significância no teste F-ANOVA (vide Tabela 17), ou seja, que teria menor poder discriminatório entre os grupos. Portanto, em 2006, a variável X15 e, em 2007, as variáveis X2, X14 e X15, foram eliminadas das análises.

Homogeneidade das matrizes de variâncias-covariâncias

Como quinto pressuposto da análise discriminante, as matrizes de variâncias- covariâncias das variáveis independentes entre os grupos devem apresentar homogeneidade.

A violação deste pressuposto, conforme Hair et al. (2009), pode ter efeito negativo no processo de classificação. Por exemplo, se as matrizes de variâncias-covariâncias não forem homogêneas entre grupos em amostras de tamanho adequado ao estudo, as observações tenderão a ser concentradas nos grupos com matrizes de variâncias-covariâncias maiores.

A fim de analisar o pressuposto da homogeneidade entre as matrizes de variâncias-covariâncias dos grupos, foi calculada a estatística Box’s M.

Tabela 15 – Resultado do Teste Box’s M

Exercícios 2005 2006 2007 Box's M ,212 29,214 2,227 F Approx. ,209 9,453 ,722 gl1 1 3 3 gl2 18252,000 985680,0 1095120,0 Sig. ,647 ,000 ,539

Fonte: Dados da pesquisa - SPSS

Os resultados do teste Box’s M mostram que houve a quebra da premissa de igualdade das matrizes de variâncias-covariâncias em 2006, dado que houve significância suficiente para rejeitar a hipótese de homogeneidade.

Conforme Hair et al. (2009), a normalidade multivariada e a homogeneidade das matrizes de variância-covariância são as suposições-chave na determinação da análise discriminante, devendo-se considerar métodos alternativos (ex: regressão logística) quando elas são violadas.