• Nenhum resultado encontrado

08/05/12 14/05/12 16/05/12 Academic Search Premier

6. RESULTADOS E ANÁLISES DOS DADOS

6.1. ETAPA QUANTITATIVA

6.1.2. Exame e preparação dos dados

Os dados foram importados para o software SPSS e as variáveis foram identificadas, acrescentando-se nelas um prefixo relacionado ao respectivo construto de origem. Assim, PEU foi utilizado para as variáveis oriundas do construto facilidade de uso percebida do ERP, PU para as oriundas do construto utilidade percebida do ERP, AT para as oriundas de atitude em relação ao uso do ERP e BI para as do construto intenção comportamental de uso do ERP (vide Quadro 9).

Quadro 9 – Origem das variáveis para análise estatística

Construto Item da Pesquisa Survey Variável

Atitude em relação ao uso do ERP (AT)

ARS01 AT-ARS01

ARS02 AT-ARS02

ARS03 AT-ARS03

ARS04 AT-ARS04

ARS05 AT-ARS05

Facilidade de uso percebida do ERP (PEU)

AS02 PEU-AS02

AS06 PEU-AS06

AS08 PEU-AS08

Utilidade percebida do ERP (PU)

AS01 PU-AS01

AS03 PU-AS03

AS04 PU-AS04

Intenção comportamental de uso do ERP (BI) AS05 BI-AS05

AS07 BI-AS07

Além dessa identificação e importação dos dados, eles foram examinados e preparados por meio de exame gráfico univariado; identificação de dados omissos e discrepantes, através de detecções univariadas e multivariadas; e verificação da normalidade, homocedasticidade, linearidade e ausência de erros correlacionais.

O exame gráfico de cada variável pode ser considerado como o ponto de partida, permitindo alcançar uma visão da normalidade dos dados por meio de um histograma, que é uma representação gráfica da frequência dos dados de uma variável (vide Apêndice I), e dos dados omissos, que são ocorrências de respostas não disponíveis para uma ou mais questões (HAIR et al., 2009, p. 57). O formulário desta pesquisa não permitiu respostas em branco para os itens fechados e também não houve digitação de dados coletados em papel. A ferramenta utilizada na pesquisa permitiu a coleta dos dados diretamente em formato de planilha eletrônica. Dessa forma, não houve ocorrência de dados omissos.

Os dados discrepantes são observações com uma combinação única de características identificáveis como diferentes das demais, sendo que, normalmente, um valor incomum em uma variável se dá por ele ser alto ou baixo ou alguma combinação ímpar que o torna marginal em relação aos demais (HAIR, 2009, p. 77). Devem ser analisados para que sejam identificados se pertinentes ao universo e, então, mantidos no resto da análise ou, caso contrário, sendo uma exceção e por isso removidos dos dados a serem analisados (HAIR, 2009, p. 78). Os dados discrepantes foram analisados sob as detecções univariada e multivariada.

A detecção univariada busca observações atípicas em cada variável da análise. Dentre os métodos para detecção de observações atípicas, Hair et al. (2009, p. 78) sugerem converter os valores dos dados em escore padrão com uma média de zero e um desvio padrão de um. Com esses valores fica fácil identificar o que fica fora do padrão. Outra forma é identificar variáveis com desvio padrão superior a |2,5| para amostras de até 80 observações. A Tabela 7 apresenta a estatística descritiva das variáveis e, como se observa, nenhuma variável apresenta desvio padrão superior a |2,5|. O Gráfico 2 corresponde ao diagrama de caixas, onde não foram identificadas observações atípicas na perspectiva univariada.

Na detecção multivariada de dados discrepantes, utilizou-se a distância de Mahalanobis, que mede a distância de cada observação em relação ao centroide e leva em consideração o grau de liberdade (GL) igual a quantidade de variáveis, que nesta pesquisa é 13 (TABACHNICK; FIDELL, 2001, p. 93). Há uma tabela para os valores críticos de acordo com a quantidade de variáveis, sendo que para 13 variáveis o número deve ser até 34,528 (TABACHNICK; FIDELL, 2001, p. 933). Utilizando-se o software Amos foi possível calcular a distância de Mahalanobis, sendo que apenas o registro de número 17 atingiu 37,183. Revisando as respostas desse registro não se encontrou motivo para excluí-lo, decidindo-se pela sua manutenção. Os valores p1 e p2 representam os níveis estatísticos de confiança, onde Hair et al. (2009, p. 78) recomenda que p1 seja conservador, até 0,005 ou

0,001. Os valores calculados estão disponíveis na Tabela 8, que apresenta a distância de Mahalanobis em ordem decrescente das três primeiras observações, enquanto que a de todas está no Apêndice J.

Tabela 7 – Estatística descritiva

N Mínimo Máximo Média Desvio Padrão

PEU-AS02 76 1 7 3,29 1,696 PEU-AS06 76 1 7 3,20 1,575 PEU-AS08 76 1 7 3,58 1,715 PU-AS01 76 1 7 3,16 1,550 PU-AS03 76 1 7 3,47 1,483 PU-AS04 76 1 7 3,63 1,607 AT-ARS01 76 1 6 2,91 1,559 AT-ARS02 76 1 7 3,03 1,665 AT-ARS03 76 1 7 2,99 1,701 AT-ARS04 76 1 7 3,30 1,713 AT-ARS05 76 1 7 2,95 1,758 BI-AS05 76 1 7 2,96 1,604 BI-AS07 76 1 7 3,34 1,662 Valid N (listwise) 76 – – – –

Fonte: Software SPSS, adaptado pelo Autor. Gráfico 2 – Gráfico de caixas

Fonte: Software SPSS.

Segundo Hair et al. (2009, p. 82), as técnicas multivariadas têm como base suposições importantes que representam as exigências das teorias estatísticas inerentes, sendo elas a normalidade, homocedasticidade, linearidade e a ausência de erros correlacionados. A normalidade refere-se à forma de distribuição de dados para uma variável métrica individual e

sua correspondência com a distribuição normal, que, caso muito discrepante, invalidará os resultados encontrados (HAIR et al., 2009, p. 82). Diante dos desafios e mesmo quando grandes amostras podem anular os efeitos da não normalidade, é recomendado que o pesquisador faça a avaliação em todas as variáveis métricas (HAIR et al., 2009, p. 82; TABACHINICK; FIDELL, 2001, p. 73).

Tabela 8 – Distância de Mahalanobis

Número da observação Mahalanobis D2 p1 p2

17 37,183 0,000 0,029

20 34,428 0,001 0,003

41 34,224 0,001 0,000

Fonte: Software Amos, adaptado pelo Autor.

Um dos testes mais comuns para verificar-se a normalidade é o histograma, que permite uma conferência visual do desvio em relação à normalidade (HAIR et al., 2009, p. 83). Outra forma é a utilização de testes estatísticos como o de Kolmogorov-Smirnov ou Shapiro-Wilk, que apresentam um valor de significância das diferenças em relação a uma distribuição normal, sendo que, para garantir melhores resultados, o pesquisador deve utilizar os dois métodos (HAIR et al., 2009, p. 83).

Nesta pesquisa, os histogramas permitiram observar que não há desvios significantes. Mesmo assim, buscando melhor averiguação, também foram aplicados os testes estatísticos Kolmogorov-Smirnov e Shapiro-Wilk, que não apresentaram nenhuma significância de desvio em relação à normalidade (vide Tabela 9), tendo como referência estatística de |2,58| com significância de 0,01 e estatística de |1,96| com significância de 0,05 (Hair et al., 2009, p. 83), respectivamente.

Tabela 9 – Teste de normalidade

Kolmogorov-Smirnov Shapiro-Wilk

Estatística GL Significância Estatística GL Significância

PEU-AS02 ,211 76 ,000 ,895 76 ,000 PEU-AS06 ,224 76 ,000 ,894 76 ,000 PEU-AS08 ,237 76 ,000 ,893 76 ,000 PU-AS01 ,185 76 ,000 ,922 76 ,000 PU-AS03 ,151 76 ,000 ,935 76 ,001 PU-AS04 ,172 76 ,000 ,927 76 ,000 AT-ARS01 ,166 76 ,000 ,888 76 ,000 AT-ARS02 ,179 76 ,000 ,910 76 ,000 AT-ARS03 ,193 76 ,000 ,898 76 ,000 AT-ARS04 ,145 76 ,000 ,923 76 ,000 AT-ARS05 ,205 76 ,000 ,882 76 ,000 BI-AS05 ,225 76 ,000 ,899 76 ,000 BI-AS07 ,185 76 ,000 ,919 76 ,000

Já a homocedasticidade trata da variância e a relação de dependência entre variáveis, sendo definida por Hair et al. (2009, p. 84) da seguinte forma:

Homocedasticidade se refere à suposição de que as variáveis dependentes exibem níveis iguais de variância ao longo do domínio das variáveis preditoras. A homocedasticidade é desejável porque a variância da variável dependente sendo explicada na relação de dependência não deveria se concentrar apenas em um domínio limitado de valores independentes (Hair et al., 2009, p.84).

O teste estatístico aplicado para a análise de homocedasticidade, quando mais de uma variável é envolvida, é o teste M de Box, que deve retornar um nível de significância baixo (TABACHNICK; FIDELL, 2001, p. 77; HAIR et al., 2009, p. 86). Nesta pesquisa esse teste foi executado com o SPSS e o resultado retornou um baixo nível de significância, de 0,008 (vide Tabela 10), que confirma a existência de homocedasticidade.

Tabela 10 – Teste M de Box

M de Box 34,648

F 2,095

GL 1 15

GL 2 5998,202

Significância 0,008

Fonte: Software SPSS, adaptado pelo Autor.

A linearidade é importante em análises multivariadas, pois trata da medida de correlação de associação entre as variáveis. Como as correlações são representações dos efeitos relacionais entre as variáveis, os efeitos não-lineares são desprezados da correlação (HAIR et al., 2009, p. 86). Segundo Tabachnick e Fidell (2001, p. 77), ela é a assunção de que há uma relação de linha reta entre duas variáveis e a melhor forma de avaliá-la é através da análise de gráficos de dispersão. Os gráficos de dispersão construídos com o auxílio do SPSS indicaram a existência de linearidade entre as variáveis. Um exemplo pode ser visto no Gráfico 3 que representa um dos gráficos de dispersão gerados. Os demais gráficos de dispersão apresentaram as mesmas características e não foram incluídos nesta dissertação.

Os erros na correlação de variáveis podem ocorrer quando grupos distintos são abordados na mesma pesquisa e analisados como um grupo só, sendo que normalmente nesses casos o resultado pode ser uma média da variação entre os grupos (HAIR et al., 2009, p. 86). Mesmo assim, o resultado estará enviesado, sendo ideal que os dados sejam analisados separadamente, conforme os grupos onde foram coletados (p. 86). Outra forma comum são dados em série temporal, onde normalmente os dados estarão relacionados conforme as séries temporais (p. 86). Hair et al. (2009, p. 86) afirmam que esse tipo de erro pode ser analisado utilizado técnicas específicas para o tratamento de dados temporais. Nesta pesquisa, não há

segmentação de grupos dentro dos usuários do ERP e também não foram utilizados dados temporais. Portanto pode-se inferir a inexistência de erros correlacionados.

Gráfico 3 – Gráfico de dispersão.

Fonte: Software SPSS.