• Nenhum resultado encontrado

5.2 E TAPA EXPERIMENTAL

5.2.7 Procedimentos de análise dos dados

Os dados coletados nos experimentos 1 e 2 foram analisados com o auxílio de pacotes estatísticos. Os softwares utilizados foram: SPSS® 10.0 (Statistical Package for

comparação de médias entre os grupos experimentais, enquanto que o Software Amos® 4.0 auxiliou na avaliação dos constructos medidos via escalas multi-item.

A idéia inicial era testar todas as hipóteses via Análise Multivariada de Covariância (MANCOVA). No entanto, nem todas as variáveis mensuradas atenderam aos pressupostos de normalidade da distribuição das freqüências exigidos para este tipo de análise. Como resultado, algumas variáveis dependentes e respectivas hipóteses tiveram que ser analisadas em testes não-paramétricos. Ou seja, as analises tiveram que ser divididas em testes paramétricos (MANCOVA) e não-paramétricos (Mann-Whitney).

5.2.7.1 Análises paramétricas

De acordo com Hair et al. (2005, p. 272), a análise multivariada de variância (MANOVA) é uma extensão da análise de variância (ANOVA), sendo que ambas “são particularmente úteis quando usadas em delineamentos (designs) experimentais”. Tanto a ANOVA quanto a MANOVA fornecem as ferramentas necessárias para julgar os efeitos registrados em tratamentos experimentais, pois as duas analisam a existência de diferenças entre grupos. No entanto, existe uma sutil diferença entre ambas. Enquanto a ANOVA examina diferenças de grupos para uma única variável dependente, a MANOVA estuda diferenças de grupo simultaneamente ao longo de múltiplas variáveis dependentes (MALHOTRA, 2001). Na ANOVA, a hipótese nula é que as médias da variável dependente são iguais através dos grupos. Já na MANOVA, a hipótese nula é de que o vetor de médias sobre variáveis dependentes múltiplas é o mesmo entre grupos.

A análise de variância multivariada é apropriada quando há duas ou mais variáveis dependentes correlacionadas. Além de fornecer pistas sobre a natureza e o poder preditivo das medidas independentes, a MANOVA permite investigar as inter-relações e diferenças existentes no conjunto de medidas dependentes. O uso de ANOVAs univariadas separadas ou testes t geralmente criam um problema no controle da taxa de erro geral ou experimental. Para controlar o erro tipo I (rejeitar Ho quando esta na realidade é verdadeira), as variáveis dependentes da presente pesquisa foram analisados via MANOVA, como fizeram Spangenberg, Crowley e Henderson (1996).

Para que uma a MANOVA possa ser empregada nos testes estatísticos, Hair et al. (2005) destacam que três importantes suposições precisam ser atendidas: as observações devem ser independentes, (2) as matrizes de variância e covariância devem ser iguais para todos os grupos do tratamento experimental e (3) o conjunto de variáveis dependentes seve seguir uma distribuição normal multivariada. Além disso, se houver múltiplas variáveis dependentes não-correlacionadas ou ortogonais, a ANOVA aplicada a cada uma das variáveis é mais apropriada do que a MANOVA.

Conforme mencionado anteriormente, na presente pesquisa foram adotadas variáveis de controle estatístico. Conforme Tabachnick e Fidell (2001), o emprego de covariáveis métricas nas analises multivariadas de variância (MANCOVA) permite que se removam as influências estranhas provocadas por variáveis independentes sobre as variáveis dependentes. De acordo com Hair et al. (2005), a adoção de covariáveis nas análises de variância é adequada ao atingimento de dois propósitos: (1) eliminar erros sistemáticos fora do controle do pesquisador que podem enviesar os resultados e (2) identificar diferenças nas respostas que podem ser atribuíveis a características peculiares dos respondentes. Embora seja desejável controlar ao máximo os efeitos estranhos ao experimento, é preciso estar atento ao fato de que um número muito grande de covariáveis acaba por reduzir a eficiência estatística dos testes. O pesquisador deve ser muito cauteloso na hora de selecionar as variáveis que serão empregadas como covariáveis.

5.2.7.2 Análises não-paramétricas

Os testes não-paramétricos ou livres de distribuição compreendem procedimentos que não necessitam de estimação da variância, da média da população e nem mesmo fazem pressuposições sobre a natureza da distribuição de freqüências da variável que está sendo estudada (STEVENSON, 2001). Por esta razão, este tipo de teste costuma ser fácil de aplicar e é aconselhável para amostras pequenas, podendo ser utilizado tanto para variáveis nominais quanto ordinais ou quantitativas. Porém, quando as variáveis quantitativas apresentam uma distribuição normal de freqüências e o tamanho da amostra é adequado, aconselha-se fazer uso dos testes paramétricos, pois os testes não-paramétricos apresentam uma maior probabilidade de erro do tipo II (aceitar Ho quando esta na realidade é falsa).

Também é importante notar que, mesmo que este tipo de teste não faça nenhuma suposição sobre a distribuição básica da população sujeita à amostragem, ele confia ou se baseia em certas distribuições amostrais, tais como a normal e a qui-quadrado, da mesma forma como é feito nos testes paramétricos.

Um dos procedimentos não-paramétricos mais utilizados para avaliar diferenças entre duas amostras independentes é o teste Mann-Whitney. Por esta razão, considerou-se que este teste seria o mais apropriado para analisar se os grupos do tratamento experimental apresentaram médias iguais para as variáveis mensuradas. De acordo com Stevenson (2001) e Malhotra (2001), o teste Mann-Whitney é o substituto mais adequado para o teste t que afere a diferença de médias entre dois grupos quando as variáveis avaliadas apresentam distribuições normais e o tamanho da amostra é adequado. Para que o teste apresente uma performance superior, é aconselhável a adoção de escalas contínuas, sendo que este pressuposto não é rígido. Apesar de apresentar maior fragilidade em relação ao teste t, o teste Mann-Whitney é quase tão forte quanto este na avaliação da Ho.

5.2.7.3 Avaliação dos constructos

O procedimento estatístico adotado para avaliar os constructo medidos com escalas multi-item foi a Análise Fatorial Confirmatória (AFC). A Análise Fatorial Confirmatória tem como propósito verificar a validade dos construtos, apurando-se os seguintes aspectos: (1) unidimensionalidade, (2) confiabilidade, (3) validade convergente e (4) validade discriminante. Os ajustes dos modelos de AFC foram avaliados tomando-se como base os indicadores apresentados na tabela 03, extraídos da literatura consultada (ex.: TABACHNICK; FIDELL, 2001; HAIR et al., 2005; KLINE, 2005).

Nos casos em que os indicadores do constructo atenderam os pressupostos mínimos de normalidade e homoscedasticidade, adotou-se a estimação Maximum Likelihood. Para as dimensões compostas por variáveis que não atenderam os pressupostos básicos de normalidade, a AFC foi realizada com uso da estimação assintoticamente livre de distribuição (asymptotic distribution free). Como o propósito final da realização de AFCs foi a obtenção de um índice representativo de cada constructo, julgou-se adequado realizar

o teste dos modelos com a adoção do método de estimação mais apropriado para cada conjunto de variáveis dependentes. Os critérios utilizados para selecionar os métodos de estimação foram embasados na literatura consultada. Conforme Tabachnick e Fidell (2001), a estimação Maximum Likelihood apresenta um bom desempenho quando os dados são normais, sendo também o método mais empregado. Por outro lado, quando se está tratando com dados não-normais, Kline (2005) sugere a utilização da estimação assintoticamente livre de distribuição, para evitar vieses.

Tabela 03 – Critérios de avaliação do ajuste dos modelos (AFC)

Índice Valor

Qui-quadrado / Graus de liberdade (χ2/gl) < 5,00

Goodness-of-Fit (GFI) > 0,90

Root Mean Square Error of Approximation (RMSEA) < 0,08

Adjusted Goodness-of-Fit (AGFI) ≥ 0,90

Incremental Fit Index (IFI) ≥ 0,90

Tucker-Lewis Index (TLI) ≥ 0,90

Comparative Fit Index (CFI) ≥ 0,90