• Nenhum resultado encontrado

No sentido de aumentar o poder de análise, de modo a colmatar as insuficiências que apresentava o estudo de uma única variável, recorreu-se a análise multivariada, nomeadamente, à análise factorial e à regressão múltipla, permitindo relacionar uma variável com as outras.

3.2.2.1 – Análise Factorial de Componentes Principais

“É uma técnica de análise exploratória de dados que tem por objectivo descobrir e analisar a estrutura de um conjunto de variáveis inter-relacionadas de modo a construir uma escala de medida de factores (intrínsecos) que, de alguma forma (mais ou menos explícita), controlam as variáveis originais” (Maroco, 2003:261). Segundo o autor, a análise factorial permite ao investigador: i) identificar os factores que explicam as correlações entre um

conjunto de variáveis; ii) reduzir grande quantidade de informação original a um conjunto pequeno de variáveis; iii) reconhecer os factores, que representam a combinação linear das variáveis originais; iv) os factores são independentes entre si e permitem que o pequeno conjunto de variáveis não correlacionadas substituía o conjunto original nas análises seguintes, a serem realizadas com outras técnicas multivariadas.

A validade da escala utilizada para avaliar as expectativas dos utentes da EMARVR acerca da prestação de um serviço público de excelente qualidade foi testada através da Análise Factorial de Componentes Principais.

Quadro 3.5 – Testes utilizados na Análise Factorial de Componentes Principais

Testes utilizados Descrição Teste de esfericidade de Bartlett

O Teste de esfericidade de Bartlett testa a hipótese da matriz de correlações ser a matriz identidade, cujo determinante é igual a um, logo, de as variáveis não estarem correlacionadas entre si. Quando a análise de componentes principais é aplicada a partir de uma matriz de correlações, uma forma de avaliar o grau de adequação dos dados à aplicação deste tipo de análise, consiste em testar se, na população, essa matriz é uma matriz identidade, ou seja, não existem correlações significativas entre as variáveis. Estatística de Kaiser- Meyer- Olkin (KMO)

Este teste compara as correlações entre as variáveis. Seja rij o coeficiente de correlação observado entre as variáveis i e j e aij o coeficiente de correlação parcial entre as mesmas variáveis que é, simultaneamente, uma estimativa das correlações entre os factores. Os aij deverão estar próximos de zero uma vez que se pressupõe que os factores são ortogonais entre si.

O KMO perto de um indica coeficientes de correlação parcial pequenos, enquanto valores próximos de zero indica que a análise factorial pode não ser uma boa ideia, porque existe uma correlação fraca entre as variáveis.

KMO Análise das componentes principais

1 - 0,90 Muito boa 0,80 - 0,90 Boa 0,70 - 0,80 Média 0,60 - 0,70 Razoável 0,50 - 0,60 Má < 0,50 Inaceitável Critério de Kaiser

Este teste exclui as componentes cujos valores próprios são inferiores à média, isto é, menores que 1 se a análise for feita a partir de uma matriz de correlações.

Método de rotação VARIMAX

O método mais popular de rotação das componentes principais é o método de rotação VARIMAX. É um método ortogonal e pretende que, para cada componente principal, existam apenas alguns pesos significativos e todos os outros sejam próximos de zero, isto é, o objectivo é maximizar a variação entre os pesos de cada componente principal. A proporção de variância explicada por cada uma das componentes, mantém-se constante, apenas se distribuindo de modo diferente para que sejam maximizadas as diferenças entre as contribuições das variáveis: aumentando as que mais contribuem para a formação da componente e diminuindo os pesos das que menos contribuem.

3.2.2.2 – Análise de Regressão Múltipla

A regressão é um modelo estatístico utilizado para prever o comportamento de uma variável quantitativa a partir de uma ou mais variáveis relevantes, de natureza quantitativa (variáveis independentes), obtendo-se, desta forma, a margem de erro dessas previsões. Quando existe apenas uma variável, o modelo designa-se por regressão linear simples (MRLS) e quando existe mais do que uma variável independente, o modelo designa-se por regressão linear múltipla (MRLM).

O modelo de regressão linear múltipla será utilizado, por exemplo, para procurar explicar a variável dependente: qualidade geral do serviço prestado pela EMARVR em função das variáveis independentes: Desempenho e Prestação de Serviço, Imagem e Comunicação, Satisfação do Utente e Qualidade do Serviço (factores resultantes da análise factorial).

Quadro 3.6 – Testes utilizados na regressão linear múltipla

Testes

utilizados Descrição

Alpha de Cronbach

O alpha de Cronbach é uma das medidas mais usadas para verificação interna de um grupo de variáveis, podendo definir-se como a correlação que se espera obter entre a escala usada e outras escalas hipotéticas do mesmo universo, com igual número de itens, que meçam a mesma característica. A escala seguinte dá uma indicação aproximada para avaliar o valor de uma medida de fiabilidade:

Muito boa alpha superior a 0,9

Boa alpha entre 0,8 e 0,9

Razoável alpha entre 0, 7 e 0,8

Fraca alpha entre 0,6 e 0, 7 Inaceitável alpha inferior a 0,6

A fiabilidade da escala de avaliação global relativamente ao serviço esperado na prestação de um serviço público de excelente qualidade foi medida através do alpha de Cronbach.

R de Pearson

Quando ambas as variáveis são quantitativas analisa-se a correlação através do R de Pearson ou da sua alternativa não paramétrica o Ró de Spearman. O Coeficiente de Correlação R de Pearson exige uma relação linear entre as duas variáveis e que os dados sejam oriundos de uma distribuição normal bidimensional. O coeficiente de Correlação R de Pearson varia entre – 1 e 1. Quanto mais próximo estiver dos valores extremos tanto maior é a associação linear.

Na coluna intitulada Corrected Item Total Correlation (CI-TC) apresenta-se o coeficiente de correlação R de Pearson de cada uma das variáveis com as restantes.