• Nenhum resultado encontrado

O tratamento de dados refere-se à maneira como se pretende tratar os dados que serão coletados, justificando o motivo pelo qual esse tipo de tratamento é adequado aos propósitos do projeto (VERGARA, 1997). O software SPSS (Statistical Package for the Social Siences) foi utilizado para a realização das análises.

3.5.1 Teste para consistência interna dos dados e teste de normalidade

alfa de Cronbach. Para Field (2009), quando é usada a análise de fatores é aconselhável conferir a confiabilidade da escala. Confiabilidade significa apenas que a escala deve, consistentemente, refletir o construto que está medindo. Geralmente, afirma-se que um valor de 0,7 até 0,8 é aceitável para o alfa de Cronbach, e valores substancialmente baixos indicam uma escala não confiável.

Segundo Litwin (1995), o teste de confiabilidade é imperativo e mede o desempenho de um instrumento em uma dada população, evitando o agrupamento de questões aparentemente relevantes. Ainda segundo Freitas et al. (2000), a validade e a confiabilidade são requisitos essenciais para uma medição.

Para verificar a distribuição dos dados foram utilizados alguns testes que permitem classificar se eles são normais ou não. Para Field (2009), o teste Kolmogorov-Smirnov compara escores de uma amostra a uma distribuição normal. Portanto, se o teste é ou não significativo (p>0,05), ele informa que os dados da amostra não diferem significativamente de uma distribuição normal. Por outro lado, se o teste é significativo (p<0,05), a distribuição em questão é significativamente diferente de uma distribuição normal. Dessa forma, verificou-se por meio dos testes que a distribuição dos dados é normal.

3.5.2 Análise fatorial

A análise fatorial é um nome genérico dado a uma escala de métodos estatísticos multivariados, cujo propósito principal é definir a estrutura subjacente em uma matriz de dados (HAIR JR. et al., 2005). A análise fatorial aborda o problema de analisar a estrutura das inter-relações (correlações) entre um grande número de variáveis, definindo um conjunto de dimensões latentes comuns, chamados de fatores (HAIR JR. et al., 2005).

Segundo Hair Jr. et al. (2005), com a análise fatorial o pesquisador pode primeiramente identificar as dimensões separadas da estrutura e então determinar o grau em que cada variável é explicada por cada dimensão. De acordo com Zeller e Carmines (1980), a análise fatorial não se refere a uma única técnica estatística, mas a uma variedade de técnicas relacionadas e desenhadas para tornar os dados observados mais facilmente interpretáveis.

A literatura diferencia as duas principais modalidades de análise fatorial: exploratória e confirmatória (TABACHNICK et al., 2001). De acordo com os autores, a análise fatorial exploratória é utilizada normalmente nos estágios mais embrionários da pesquisa, no sentido de literalmente explorar os dados. Nessa fase, procura-se explorar a relação entre um conjunto de variáveis, identificando padrões de correlação. A análise fatorial exploratória pode ser

utilizada para criar variáveis, independentes ou dependentes, que podem ser utilizadas posteriormente em modelos de regressão. Por sua vez, a análise fatorial confirmatória é utilizada para testar hipóteses. Nesse caso, o pesquisador guiado por alguma teoria testa em que medida determinadas variáveis são representativas de um conceito/dimensão. Para o propósito do estudo, utilizou-se da análise fatorial exploratória e confirmatória, a fim de analisar primeiramente a correlação entre as variáveis.

O teste KMO (Kaiser-Meyer-Olkin) avalia se as correlações parciais entre as variáveis são pequenas. Segundo Malhotra et al. (2006), a medida de adequação da amostra de KMO trata-se de um índice usado para avaliar a adequação da análise fatorial, em que valores altos (entre 0,5 e 1,0) indicam que a análise fatorial é apropriada, já valores abaixo de 0,5 indicam que a análise fatorial pode ser inadequada.

3.5.3 Coeficiente de assimetria de Pearson

O coeficiente de assimetria de Pearson mede o afastamento da simetria, e expressa a diferença entre a média em relação ao desvio padrão do conjunto de medidas (KAZMIER, 2004). Se o coeficiente for negativo, a distribuição terá assimetria negativa; se for positivo, assimetria positiva, e se for nulo, a distribuição será simétrica.

Para Levin e Fox (2006), o coeficiente expressa numericamente tanto a intensidade como a direção da correlação linear e, em geral, variam entre – 1,00 e + 1,00. Quando os valores numéricos são negativos, expressam correlação negativa, enquanto que os valores numéricos positivos indicam correlação positiva. Quanto ao grau de associação quanto mais próximo de 1,00 em qualquer direção, maior será a intensidade da correlação. O valor -1,00 indica uma perfeita relação negativa ou reversa, ou seja, quando uma variável se torna maior, a outra diminui.

3.5.4 Análise de variância de um fator

A Anova (Analysis of Variance) é uma extensão do teste t de Student, e é utilizada para comparar duas médias independentes (FÁVERO, 2009). Anova é utilizada para avaliar as diferenças estatísticas entre as médias de dois ou mais grupos (HAIR JR. et al., 2005).

De acordo com Pestana e Gageiro (2005), a análise de variância de um fator permite verificar o efeito de uma variável independente qualitativa em uma variável dependente quantitativa.

Para esta análise, utilizou-se o teste post hoc que, segundo Field (2009), consiste em comparações em pares planejados, a fim de comparar todas as diferentes combinações de grupos testados. O procedimento que foi utilizado para o teste post hoc é o Tukey, que é recomendado quando o tamanho da amostra é igual e se tem evidência que as variâncias populacionais são semelhantes (FIELD, 2009).

3.5.5 Análise de regressão múltipla

A análise de regressão múltipla é uma técnica estatística que pode ser usada para analisar a relação entre uma única variável dependente e várias variáveis independentes (HAIR JR. et al., 2005).

De acordo com Hair Jr. et al. (2005), o objetivo da análise de regressão múltipla é utilizar as variáveis independentes cujos valores são conhecidos para prever os valores da variável dependente escolhida. Dessa forma, cada variável independente é ponderada pelo procedimento da análise de regressão para garantir máxima previsão a partir do conjunto de variáveis independentes. Os pesos demonstram a contribuição relativa das variáveis independentes para a previsão geral e auxilia a interpretação sobre a influência de cada variável em fazer a previsão, apesar da correlação entre as variáveis independentes complicar o processo interpretativo (HAIR JR. et al., 2005).

Nesse sentido, “o conjunto de variáveis independentes ponderadas forma a variável estatística de regressão, uma combinação linear das variáveis independentes que melhor prevê a variável dependente”. (HAIR JR. et al., 2005, p. 32). Segundo o autor, para aplicar a análise de regressão múltipla os dados a serem analisados devem ser métricos ou devidamente transformados, antes de estabelecer a equação de regressão, sendo necessário que o pesquisador defina qual será a variável dependente e quais serão as independentes.