• Nenhum resultado encontrado

Existência de aplicações financeiras e tipo 2) Existência de empréstimos e tipo

Acesso 24 horas e conveniência

H. Caracterização sócio-demográfica

1) Existência de aplicações financeiras e tipo 2) Existência de empréstimos e tipo

3. Recolha de dados: Procedimento

Os questionários foram administrados presencialmente na zona de Lisboa durante os meses de Junho, Julho e Agosto de 2002 por entrevistadores devidamente prepara- dos para o efeito.

270Na ausência de propostas dedicadas, os atributos incluídos nesta medida foram seleccionados com base na

4. Técnicas de tratamento e análise dos dados

Os dados recolhidos foram processados com recurso ao software SPSS (versão 11.5) tendo-se estabelecido à partida um conjunto de condições e utilizado, de acordo com os objectivos propostos, o grupo de técnicas estatísticas que se entenderam adequa- das à análise e que seguidamente se descrevem sinteticamente.

Todas as análises de inferência são efectuadas para determinar se as diferenças e/ou relações encontradas entre características na amostra são extrapoláveis para a popu- lação, considerando um nível de confiança de 95% (i.e. um nível de significância de 5%)

e um nível de precisão de 3,15%271.

4.1. Construção dos índices

Relativamente às variáveis “imagem”/“importância atribuída”, “satisfação”, “imagem global”, “qualidade global” e “fidelidade” foram calculados índices compósitos a partir da média aritmética dos indicadores utilizados na sua estimação para cada inquirido, tendo sido considerados todos aqueles que tenham dado uma resposta válida a pelo menos uma das questões. A construção do índice de bancarização, dada a complexi- dade de integração dos diversos indicadores, exigiu como método de classificação o

alisamento dos dados em função das distribuições observadas272.

Em relação à imagem específica, atendendo à natureza multidimensional do conceito e prosseguindo o objectivo de permitir, em fase posterior, uma mais clara e imediata interpretação e comparação dos dados, optou-se adicionalmente pelo cálculo de índices para cada um dos seus factores constitutivos. Para o efeito, e à semelhança do sucedido na pesquisa preliminar, utilizou-se inicialmente uma análise factorial de

componentes principais273para uma síntese da informação existente e para, simulta-

neamente, se proceder à identificação das dimensões subjacentes às variáveis obser- vadas (confirmando ou não as identificadas na fase I), sendo posteriormente, sem perda significativa de informação, calculados os índices a partir das variáveis consti- tutivas de cada factor emergente.

271O cálculo do erro máximo admissível ou nível de precisão utiliza a expressão usual: ou

; E = 0.0315

272Para descrição pormenorizada da metodologia e processo de construção do índice de bancarização, Cf. Anexo 7.3. 273Esta técnica é aliás frequentemente utilizada como processamento prévio para outras metodologias (Silvério, 1998).

4.2. Técnicas estatísticas utilizadas

4.2.1. Indicadores descritivos

Para a descrição e síntese dos resultados utilizaram-se frequências simples e rela- tivas e as medidas usuais de localização – média, mediana, moda e percentis – e de dispersão – desvio padrão e variância. As medidas apresentam-se em tabelas e gráfi- cos de acordo com a forma considerada mais adequada e eficaz de tradução da infor- mação.

Sempre que se justificou, para análise de relação entre variáveis são utilizadas medi- das de associação e correlação como o V de Cramer, o coeficiente de contingência para medição de associação entre 2 variáveis qualitativas, o coeficiente de correlação linear de Pearson para medição da intensidade e sentido da relação entre 2 variáveis quan- titativas e o coeficiente de determinação para medição da relação entre 2 variáveis quantitativas, nomeadamente da proporção de variação da variável dependente que é explicada pela variável independente.

4.2.2. Testes de comparação de médias

Para a comparação de médias em 2 grupos independentes foi utilizado o teste t de comparação de médias, com os seguintes pressupostos:

1) A existência de 2 amostras independentes;

2) A distribuição normal da variável dependente em cada um dos grupos (com grupos maiores de 30 assume-se a aproximação à normal);

3) A verificação de homogeneidade das variâncias (iguais variâncias das distribuições da variável dependente em cada grupo), condição testada através do teste de Levene.

Para a comparação de médias em 3 ou mais grupos independentes foi utilizada a análise de variância simples paramétrica Oneway-Anova, cumprindo-se os pressu- postos seguintes:

1) A existência de 3 ou mais amostras independentes;

2) Uma distribuição normal assumida pela variável dependente em cada um dos grupos, circunstância verificada pelo recurso ao teste de Kolmogorov-Smirnov; 3) Homogeneidade das variâncias (i.e. igual variância das distribuições da variável

Na ausência de cumprimento da totalidade dos pressupostos, optou-se pela alter- nativa não paramétrica a este teste, o teste de Kruskal-Wallis, que verifica a igualdade das distribuições da variável dependente pelos grupos.

A utilização destes testes permite chegar à decisão de rejeição da hipótese nula, ou seja, à determinação da existência de pelo menos um grupo onde a média (a distri- buição média de ordenações) da variável dependente é diferente das restantes. A iden- tificação de qual ou quais dos grupos cumpre essa condição é conseguida através de um teste de comparação múltipla, por exemplo, quando aplicável, do teste de Scheffé. Para o teste de comparação de 2 médias em amostras emparelhadas, foi utilizado o teste t para amostras emparelhadas, que testa a igualdade de 2 médias em 2 grupos com os mesmos elementos, tendo como pressupostos a normalidade e igualdade de variâncias. Para testar a existência de relação entre 2 variáveis qualitativas foi utilizado o teste do Qui-Quadrado.

4.2.3. Análise de Componentes Principais

À semelhança do ocorrido na fase dos estudos preliminares, a adequação da apli- cação da análise foi assegurada pelo recurso à estatística KMO e ao teste de Bartlett; relativamente à rotação de componentes, utilizou-se para o efeito a rotação Varimax (Reis, 2001).

Para a extracção do número de componentes recorreu-se de uma forma geral a crité- rios de ordem substantiva e também, por ordem decrescente de ponderação, ao crité- rio da quantidade de variação explicada, ao critério de Kaiser (ou dos valores próprios) e, por fim, ao “Scree-plot”.

Em relação aos “loadings”, definiu-se o valor de 0,4 como contribuição mínima para a manutenção das variáveis nos factores.

Finalmente, devido ao elevado número de variáveis a considerar simultaneamente optou-se por substituir os valores omissos pelas respectivas médias.

4.2.4. Análise de Clusters

Através do recurso à análise de clusters pretendeu-se encontrar grupos homogéneos de clientes bancários em função da imagem que têm do seu banco e ainda de acordo

274A análise de clusters tem sido utilizada em Marketing, entre outras coisas, no auxílio à definição de seg-

mentos de clientes baseados em perfis demográficos ou psicográficos (Silvério, 1998).

275A análise de clusters é vulgarmente precedida de tratamentos destinados a reduzir a dimensionalidade do

problema (Silvério, 1998).

276A análise de clusters é justamente considerada um método de classificação “sem preconceitos”, ou seja, que

parte da observação das semelhanças ou diferenças entre objectos ou pessoas sem a definição de pressu- postos prévios (Reis, 1991 : 1). Por outro lado, o facto de a análise de clusters proporcionar geralmente resul- tados intuitivos, fáceis de entender e explicar, é importante neste caso dada a natureza exploratória da maté- ria em estudo.

277Também nas mais vulgarizadas técnicas “hierárquicas”, a escolha do número de grupos é decidida pelo inves-

tigador; a diferença fundamental é que nessas técnicas, os agrupamentos vão sempre até 1 grupo, deixando ao investigador a decisão à posteriori sobre qual a solução mais adequada. Nos K-médias o agrupamento é feito com um número definido à partida pelo investigador (Reis, 1991).

Com base no conjunto de dimensões de imagem obtido pela ACP prévia275, a análise

de clusters, que associa um conjunto de técnicas geralmente utilizadas para procura de agrupamentos em função da similitude ou distância entre membros de uma qualquer classe, revelou-se adequada à prossecução do reconhecimento e identificação de even- tuais traços distintivos entre grupos de inquiridos, por, enquanto método de classifica- ção, não implicar a definição de critérios apriorísticos de inclusão/exclusão em relação a determinada classe e, simultaneamente, assumir a existência de clusters naturais (com membros similares entre si e distintos dos membros dos outros clusters), remetendo

para o investigador a tarefa de interpretação de resultados, geralmente intuitivos276.

Para a análise de clusters podem ser definidas várias técnicas. A escolha da técnica de análise mais apropriada à aplicação do método recaiu sobre a técnica de optimização K-médias, vulgarmente utilizada quando se dispõe de ficheiros de elevada dimensão, e.g. quando o número de casos ultrapassa os 200 (Reis, 1991; Reis, 2001). Esta técnica implica a definição prévia do número de grupos a testar e pressupõe a inserção de todos os elementos nos grupos previamente definidos. No caso concreto em análise, foram testa- dos agrupamentos de dois a oito, tendo sido posteriormente seleccionado o cenário de

três agrupamentos por se constituir como mais interpretável277; a sua validação foi obtida

através de testes de comparação de médias dos factores (imagem e importância atri- buída) por grupos, que permitiram apreender as diferenças existentes e o seu sentido.

4.2.5. Regressão linear

A regressão linear foi utilizada para modelar sobretudo a relação entre a fidelidade (enquanto variável dependente) e o conjunto de variáveis entendidas como preditivas

(i.e. independentes), tanto de forma autónoma (utilizando o modelo de regressão linear simples) como em conjunto (a partir do modelo de regressão linear múltipla).

A regressão278compreende um conjunto de técnicas de modelação que prosseguem,

enquanto objectivo comum, a previsão do valor ou intervalo de confiança para a variá- vel dependente a partir de variáveis independentes conhecidas ou simuladas, recor- rendo geralmente ao método dos mínimos quadrados para estimar parâmetros desco- nhecidos (Silvério, 1998). De entre o conjunto de técnicas, as capacidades para efec- tuar previsões da regressão linear justificam a sua extensa utilização em marketing. Na regressão linear não se assume a relação causal entre variáveis dependentes e inde- pendentes, mas sim a sua ligação; ou seja, não se procura uma explicação da covaria- ção existente mas apenas a justificação (com a prudência que impõe uma inferência

fraca) de que o evento causal é significante para o evento consequente (Dooley, 1995)279.

Para a realização do modelo de regressão linear simples foram tidos em atenção os seguintes pressupostos de aplicabilidade, assim como a sua validação:

1) linearidade do fenómeno em causa: validação efectuada através da construção de diagrama de dispersão das observações com adaptação da recta;

2) resíduos normais i.i.d. (independentes e identicamente distribuídos) de valor médio 0280.

Para a realização do modelo de regressão linear múltipla acresceu ainda um outro pressuposto:

3) independência das variáveis explicativas: a possibilidade de existência de multico- linearidade entre as variáveis independentes (i.e. que as variáveis explicativas não sejam linearmente independentes) foi verificada pela análise aos coeficientes de correlação que apresentavam entre si (quando acima de 0.90 podem indiciar multi-

278Trata-se de um instrumento estatístico que permite definir um modelo matemático linear que traduz a rela-

ção entre uma variável dependente e uma ou mais variáveis independentes. Com o modelo construído é possível efectuar previsões, sendo a sua equação:

279A Regressão linear múltipla é utilizada em conjunção com a “Path Analysis” (descrita mais adiante) para

descrever a estrutura das (teorizadas) ligações causais entre a variável dependente e as variáveis indepen- dentes (Pestana e Gageiro, 2003).

2801) Variáveis aleatórias residuais com valor esperado nulo E[ε

i] = 0 : validação através do método utilizado para

estimação dos parâmetros de regressão, neste caso, o método dos mínimos quadrados;

2) Homocedasticidade dos resíduos, ou seja, variância constante das variáveis aleatórias residuais: Var [εi] = σ2.: validação através da representação gráfica dos resíduos vs valores estimados de Y (os pontos não devem

aumentar ou diminuir a sua dispersão ao longo dos valores estimados de Y);

3) Distribuição Normal das variáveis aleatórias residuais: εi∩N (0,σ).: validação através do histograma dos resí-

duos standartizados, teste de Kolmogorov-Smirnov, gráfico Q-Q Normal ou detrended Q-Q Plot dos resíduos standartizados;

4) Independência entre as variáveis aleatórias residuais: Cov (εi, εj) = 0 , ∀i, j ∈{1,2,…,n} :i ≠j : validação da esta-

tística de Durbin-Watson - valor em torno de 2 indica uma não autocorrelação dos resíduos, ou seja, a sua inde- pendência.

colinearidade) e pela Tolerância e VIF (“variance inflation factor”); o primeiro indica multicolinearidade quando apresenta valores abaixo de 0.1, e o segundo (o inverso da tolerância) tem como referência o valor 10, acima do qual se pode verificar multi- colinearidade (Pestana e Gageiro, 2003).

A qualidade do ajustamento efectuado é medida pelo coeficiente de determinação

R2que traduz a proporção de variação da variável dependente explicada pela variável

independente. No caso da regressão linear múltipla utilizou-se o coeficiente de deter-

minação ajustado porque tem em conta todo o modelo, ajustando o valor de R2 de

acordo com a dimensão da amostra e o número das variáveis em causa.

No modelo de regressão linear, tanto simples como múltipla, surgem como testes sobre a qualidade do modelo:

1) Teste de F: valida em termos gerais o modelo de regressão; tem como hipótese nula

que a variação de Y não é explicada linearmente por X1, X2, ..., Xn;

2) Teste da nulidade de Beta: mede a capacidade explicativa das variáveis indepen- dentes, ou seja traduz a importância relativa das variáveis no modelo; tem como hipótese nula que os valores dos betas são zero.

4.2.6. “Path Analysis”

Para descrever a estrutura das ligações existentes entre as variáveis dependentes e independentes, assim como avaliar a sequência lógica do modelo estrutural formali- zado, foi utilizada a “Path Analysis” (Pestana e Gageiro, 2003).

No caso concreto, a utilização desta técnica (que conjuga o modelo de regressão linear múltipla com a teoria causal) permitiu estimar o impacto relativo – directo e indi- recto – que cada variável tem sobre as variáveis que lhe sucedem dentro do enqua- dramento (teórico) que estabelece a sua ordem temporal, não deixando todavia de ser

reconhecida a sua incapacidade para a validação de hipotética causalidade281.

A “path analysis” utiliza coeficientes e diagramas para expressar eventuais ligações

281Existe a noção de que a investigação de natureza correlacional apenas proporciona fraco suporte para liga-

ções causais – duas variáveis podem estar correlacionadas por razões outras que as hipotetizadas, pode ser descrita uma associação sem que se conheça que uma ligação causal é responsável por ela, duas medidas podem estar correlacionadas apenas porque reflectem o mesmo conceito de base. Não obstante, as pesqui- sas de design correlacional permitem testar a adequação (“fit”) de um determinado modelo causal a um conjunto de dados e, nesse sentido, embora uma potencial adequação não proporcione inequívoco supor- te ao modelo, pode no limite admitir-se que uma má adequação tenderá a suscitar dúvidas sobre a sua vali- dade.

que unam variáveis. As variáveis exógenas (i.e. que dependem de causas externas à teoria em estudo) representam pontos de partida para vias que conduzem a variáveis endógenas (presumíveis resultados das primeiras) que podem, por sua vez, exercer influência sobre outras variáveis, tornando-se neste caso em variáveis preponderan- tes. Para estimar a dimensão dos efeitos, a “path analysis” realiza geralmente regres- sões, sendo para cada variável endógena necessária uma equação de regressão.

Em complemento à medida da força de cada ligação entre variáveis, a adequação global do modelo aos dados é dada pela extensão da variância das variáveis endóge- nas explicada pelo conjunto de todas as variáveis prévias. Dois valores equivalentes

proporcionam esta informação – o R2e o residual (e). O R traduz o coeficiente de corre-

lação múltiplo que mede a melhor associação da variável dependente com todas as variáveis causais, o valor residual (“residual path”) reflecte o efeito de todas as influên- cias (não medidas) exteriores ao modelo – o valor colocado na ligação residual indica

a diferença entre uma explicação perfeita (R2=1) e a explicação observada no modelo

presente (R2observado) ou 1-R2. Em síntese, uma boa adequação entre modelo e dados

resultará num elevado R2(aproximando o valor a 1) e num pequeno coeficiente resi-

dual (aproximando-se de 0) para cada variável endógena.

4.2.7. “Categorical Principal Components Analysis” (CATPCA)

Para uma mais eficaz aferição do posicionamento de bancos e clientes (por clusters) entre si e face aos diversos índices, foi utilizada uma CATPCA – Categorical Principal Components Analysis (Maroco, 2003; SPSS, 2000).

Esta técnica é apropriada quando se pretende reduzir a dimensionalidade de variá- veis medidas em escalas diferentes a um ou mais índices que expliquem uma propor- ção considerável da informação presente e surge como forma de ultrapassar as limi- tações da análise de componentes principais na utilização de variáveis qualitativas. A CATPCA tem na sua base um procedimento, designado genericamente por “optimal scaling”, que atribui quantificações numéricas às categorias de cada uma das variáveis qualitativas dotando-as, simultaneamente, pelo recurso a métodos standard de análise numérica, de propriedades métricas. Os valores resultantes do “optimal scaling” são, depois de estandardizados, usados na catpca; o SPSS atribui valores de “optimal scaling” a cada uma das categorias das variáveis em estudo, de modo a que estes sejam “óptimos” relativamente à solução das componentes principais obtidas (Maroco, 2003). No caso particular, esta técnica tem ainda como vantagens: o facto de, por um lado,

admitir a possibilidade de adição à análise de variáveis suplementares (e.g. “banco prin- cipal” e clusters), que não são usadas na dedução das componentes mas que são projectadas posteriormente no sistema; por outro lado, e essencial ao objectivo de síntese de informação, a circunstância de permitir a representação gráfica (bi-plots) da relação entre objectos (indivíduos) e variáveis.

À semelhança do proposto para as ACPs também aqui se aplicou o método dos valo- res próprios para a decisão sobre o número de componentes a reter, atendida neces- sariamente a proporção de variância explicada.

Documentos relacionados