• Nenhum resultado encontrado

3. O FRAMEWORK DO KMD

4.4. Coleta de Dados e Procedimentos Adotados

O procedimento de aplicação do KMD na UCB contemplou as seguintes etapas: a) contextualização do KMD para a organização; b) aplicação do KMD contextualizado; c) apuração da pontuação da eficácia dos processos de GC; d) validação quantitativa da amostra; e) análise fatorial e identificação dos fatores presentes na amostra; f) formulação de iniciativas de GC baseadas nos fatores e g) consolidação das iniciativas e dos indicadores em uma proposta integrada de BSC à UCB.

87 A contextualização do KMD para a UCB consistiu na revisão do questionário com o objetivo de compatibilizá-lo ao contexto da UCB. Nessa etapa, procurou-se adequar o questionário do KMD ao contexto da organização, alterando minimamente possível o instrumento original, de forma a evitar que as alterações afetassem a semântica das questões, e, conseqüentemente, interferissem nas respostas. Converteu-se, também, a escala de 03 (três) níveis do framework em uma escala Likert de 4 níveis: 0 – não concordo; 1 – concordo fracamente; 2 – concordo moderadamente e 3 – concordo fortemente. A conversão da escala do framework em uma escala intervalar é requisito para uso da análise fatorial.

Após a contextualização, o KMD foi submetido à validação de 03 (três) funcionários da organização, com o objetivo de identificar eventual comprometimento semântico das questões e para verificar a capacidade de entendimento das questões pelos respondentes.

Na etapa de aplicação do KMD, foram convidados a responder espontaneamente ao questionário 60 (sessenta) funcionários do CCT, que receberam uma via do documento com prazo definido para devolução. Dentre esses funcionários haviam professores com função exclusiva de docência, assessores e coordenadores de cursos e o diretor do Centro.

Na etapa de apuração da eficácia de processos de GC, os pontos e os percentuais de cada passo do processo e do processo geral de GC foram calculados conforme proposto no framework (Bukowitz; Williams, 2002). Ao final dessa etapa, as respostas foram transferidas para a ferramenta estatística SPSS, versão 13.0, para que fosse procedida a análise fatorial.

A validação quantitativa da amostra consistiu em submeter a amostra à análise de confiabilidade e de adequação ao uso da análise fatorial. Para essa etapa, foram escolhidos 03 (três) testes: o teste alpha de Cronbach, o teste de esfericidade de Bartlett e o KMO – Kaiser Meyer Olkin.

O índice Alpha de Cronbach é tipicamente utilizado como indicador sumário da consistência interna de um teste e dos itens que o compõem. Segundo Pasquali (apud PANZINI, 2004, p.48), o índice consiste essencialmente em verificar a homogeneidade dos itens que compõem um teste/escala. Assim, o escore total no teste se torna o critério de decisão, sendo que a correlação entre cada item e este escore total decide a qualidade do item e sua permanência. Como resultado do teste

88 alpha no SPSS, obtém-se o valor do índice alpha de Cronbach e a estatística dos casos válidos da amostra.

O teste de esfericidade de Bartlett oferece uma indicação da fatorabilidade da matriz de correlações, ao checar a hipótese que a matriz de correlação dos dados é uma matriz identidade – aquela cujos termos diagonais são iguais a 1 e termos fora das diagonais são iguais a 0. A hipótese nula no teste de esfericidade é que a matriz de correlação é uma matriz identidade e tem que ser rejeitada. (LAROS, 2004, p.173). O valor de referência aceitável para a significância do teste de esfericidade é abaixo de 0,050.

O KMO (Kaiser-Meyer-Olkin) é um índice de adequação da amostra e que evidencia a sua fatorabilidade, estando baseado nas correlações parciais entre as variáveis (LAROS; PALACIOS, 2004, p. 114). Os valores de referência do KMO estão entre 0,50 e 1, sendo que os valores abaixo de 0,50 indicam que a análise fatorial pode não produzir os resultados esperados, e, quanto mais perto de 1, maior a expectativa de resultados satisfatórios com o uso da análise fatorial.

A análise fatorial e identificação dos fatores consistiu em submeter as respostas à análise pelo Software Estatístico SPSS, objetivando encontrar fatores subjacentes às variáveis observadas. A identificação dos fatores foi complementada pela sua denominação, que se baseou na análise do pesquisador sobre as variáveis que os compuseram.

A análise fatorial, segundo Laros (2004, p.163), é um dos procedimentos psicométricos mais freqüentemente utilizados tanto na construção, quanto na revisão e avaliação de instrumentos psicológicos, como no desenvolvimento de teorias psicológicas, podendo ser usada, também, na verificação do pressuposto da unidimensionalidade21 da Teoria de Resposta ao Item. Tem como ponto central de partida o princípio da parcimônia, segundo o qual, um grande número de variáveis observadas pode ser explicado por um número menor de variáveis hipotéticas, não observadas, denominadas fatores, que são responsáveis pela correlação das variáveis entre si e resultam de combinações lineares das variáveis observadas.

21 O pressuposto da unidimensionalidade implica que todos os itens de um instrumento estejam

medindo um único construto. Se o instrumento está de fato medindo mais do que um fator, um escore total individual deve ser calculado para cada fator e todas as análises estatísticas subseqüentes devem ser feitas independentemente para cada fator.

89 É também entendida como um conjunto de técnicas estatísticas cujo objetivo é representar ou descrever um conjunto de variáveis por meio de um menor número de variáveis hipotéticas, sem perda significativa da informação contida no conjunto original (REIS apud PEREIRA, 2004, p.26).

Apesar da grande utilização na validação de instrumentos psicológicos, segundo Laros (2004, p.164), “existe uma ambigüidade considerável sobre práticas de pesquisa apropriadas em relação à análise fatorial”, o que o motivou a publicar um artigo com diretrizes sobre o uso da análise fatorial para pesquisadores.

Objetivando, também, promover o entendimento e melhor uso da análise fatorial exploratória, Costello e Osborne (2005) elaboraram um artigo discutindo algumas melhores práticas no uso dessa técnica.

Laros (2004) e Costello e Osborne (2005) abordam alguns aspectos comuns sobre escolhas que o pesquisador deve considerar no uso da análise fatorial, quais sejam: a) a escolha do método de extração do fator; b) o número de fatores a ser retido; c) o método de rotação e d) o tamanho da amostra.

Entretanto, antes de abordar esses aspectos, entende-se necessário fazer a distinção dos usos da análise fatorial que, segundo Laros (2004, p.165), pode ser: exploratório ou confirmatório.

O uso exploratório da análise fatorial pode ser dividido em dois tipos, um relacionado à explicação e outro relacionado à redução de dados. O tipo relacionado à explicação consiste em identificar as dimensões subjacentes de um determinado domínio, ou seja, a análise fatorial exploratória, também denominada análise fatorial comum, é utilizada para descobrir as variáveis que estão subjacentes à escala. E o tipo relacionado à redução de dados objetiva descobrir ponderações ótimas para as variáveis mensuradas, de forma que o conjunto de variáveis iniciais possa ser reduzido em um subconjunto de variáveis que tenham a máxima variabilidade e fidedignidade.

No uso confirmatório da análise fatorial, os pesquisadores geram hipóteses baseadas em teorias ou nos resultados de estudos prévios, e a análise fatorial é utilizada para verificação se a estrutura fatorial teórica se adequa aos dados observados.

Sobre o método de extração de fatores, Costello e Osborne (2005, p.2) argumentam que a Análise Fatorial Comum – AFC é preferível à Análise de Componentes Principais – ACP, enquanto a ACP deve se restringir à redução de

90 dados. Laros (2004, p.177), contrariamente, entende que tanto a ACP como a AFC podem ser usadas, sendo a primeira uma alternativa razoável porque mantém os coeficientes de correlação22 dos fatores iniciais para os fatores após a rotação. Na presente pesquisa, será usada a ACP na extração dos fatores.

O número de fatores a extrair é outro aspecto da análise fatorial que suscita discussão e sobre o qual o único consenso (COSTELLO; OSBORNE, 2005, p.3; LAROS, 2004, p.172) é o que tanto a superextração (a extração de um número maior de fatores dos que realmente existem) quanto a subextração (extração de menos fatores dos que realmente existem) podem levar a resultados distorcidos.

Dentre os critérios de extração de fatores apresentados por Laros (2004, p.172-175), constam dois dos disponíveis na ferramenta SPSS: o critério Guttman- Kaiser - GK e o teste do scree de Cartell.

O critério Guttman-Kaiser – GK, também denominado de K-1 em alguns softwares nos quais é opção padrão, é o critério do autovalor maior que 1,0. O autovalor corresponde à quantidade de variância explicada por um componente, sendo que um autovalor igual a 1,0 representa a totalidade de percentagem da variância explicada por uma única variável. Baseia-se na consideração de que um fator precisa explicar pelo menos a quantidade de variância que é explicada por uma única variável.

Segundo Velicer e Jackson (apud COSTELLO; OSBORNE, 2005, p.2) existe amplo consenso na literatura de que esse critério é “um dos métodos menos apurados” para seleção do número de fatores a reter. Segundo Linn (apud LAROS, 2004, p.174), resultados de estudos realizados com o critério GK demonstraram a superestimação de fatores, o que levou a uma recomendação contra o uso continuado desse método.

O teste do scree de Cattell, desenvolvido em 1966, é baseado no gráfico dos autovalores e separa o ‘scree’ 23 de fatores triviais do início com o de fatores não triviais por meio de uma inspeção visual no gráfico. Uma maneira simples de descrever o teste é procurar um “cotovelo” no gráfico, que separa valores triviais de

22 Vide colunas %of variance das tabelas Total Variance Explained no apêndice.

23 Segundo Pereira (2004, p. 40), o teste do scree é comparado à análise da separação da base de

uma montanha e o acúmulo de restos de rochas dela caídos, sendo que a análise pára no ponto onde começam os restos.

91 não triviais. Segundo Laros (2004, p.173), entretanto, com esse teste podem ocorrer duas complicações: os valores podem mostrar um declive gradual sem ponto de quebra marcante, e os valores podem demonstrar mais que um ponto de quebra. Para Costello e Osborne (2005, p.3), o teste do scree é o melhor teste para os pesquisadores.

A Figura 12 apresenta um exemplo de scree plot.

Figura 12 - Exemplo de scree plot.

Fonte: Pereira (2004, p.41)

De acordo com Reis (apud PEREIRA, p.40), um outro critério de extração, é incluir os componentes suficientes para explicar mais de 70% da variância total, porém existem divergências quanto ao limite mínimo de variância explicada

Com relação ao método de rotação Laros (2004, p.177) e Costello e Osborne (2005, p.3) são unânimes ao defender que o objetivo da rotação é simplificar e clarear a estrutura de dados obtida. Por isso, a rotação não pode incrementar aspectos básicos da análise, como o percentual de variância explicada dos itens, e cada variável deve ter uma carga alta em um único fator, visando evitar ambigüidade de interpretação. O procedimento de rotação pode ser ortogonal, no qual os fatores são mantidos não correlacionados, ou oblíquo, no qual os fatores podem se correlacionar. Os procedimentos oblíquos, entretanto, ao correlacionar os fatores

92 entre si, podem contrariar a finalidade a exploração, se este for encontrar fatores distintos.

Como métodos ortogonais existem o VARIMAX, o QUARTIMAX, o EQUAMAX, o ORTHOMAX e o PARSIMAX, sendo o primeiro o mais utilizado e cujo objetivo é maximizar a variância das cargas fatoriais altas e diminuir das cargas fatoriais baixas, estando disponíveis na versão do SPSS utilizada apenas os três primeiros métodos ora mencionados.

Como métodos oblíquos, existem o DIRECT OBLIMIN, o QUARTMIN, o PROCRUSTES e o PROMAX, estando disponíveis no SPSS, apenas o primeiro e o último.

No tocante ao procedimento de rotação, os entendimentos de Laros (2004, p.178) e de Costello e Osborne (2005, p.3) são divergentes, uma vez que o primeiro defende que os pesquisadores devem ser encorajados a utilizar também os outros métodos de rotação, enquanto os últimos recomendam o método VARIMAX.

Com relação ao tamanho da amostra, os três autores concordam unanimemente que não existe tamanho mínimo de amostra. Costello e Osborne (2005, p.4) evidenciam que, quanto mais fortes os dados, menor pode ser o tamanho da amostra, sem prejuízo da sua acurácia. Dados fortes, nesse contexto, significam comunalidades uniformemente altas sem cargas cruzadas, complementados por muitas variáveis com cargas altas em cada fator. Indicam, ainda, que um fator com menos de 3 (três) itens pode ser fraco e instável, e que sugerem que fatores com 5 (cinco) ou mais itens com cargas fatoriais superiores a 0,50 são desejáveis e evidenciam um fator sólido, sendo, entretanto, admissível reduzir o número de variáveis por fator mantendo-o forte, se o conjunto de dados for grande. Finalizam lembrando que quanto mais dados, melhor, porque as generalizações e replicações de resultados são improváveis em pequenas amostras.

Sobre esse tema, Laros (2004, p.168) defende que amostras heterogêneas tendem a apresentar melhores resultados e indica que, quanto mais alto o valor da carga fatorial, melhor a variável representa o fator, e apresenta a escala de classificação de valor de carga proposta por Comrey e Lee (apud LAROS, 2004, p.179), segundo a qual cargas maiores que 0,71 são excelentes, maiores que 0,63 são muito boas, maiores que 0,55 são boas, maiores que 0,45 são razoáveis e maiores que 0,32 são pobres.

93 Na presente pesquisa, a análise fatorial exploratória foi feita usando o método de Análise de Componentes Principais – ACP, porque ele mantém o mesmo valor da variância total explicada após a rotação (o que simplifica a análise) e buscou identificar fatores que atendessem, pela ordem, aos seguintes requisitos:

• Variância total explicada mínima de 70% (setenta por cento) da amostra;

• Fatores com índice de confiabilidade mínimo de 50% (cinqüenta por cento);

• Índice de significância do teste de esfericidade e do KMO dentro dos valores de referência;

• Cargas fatoriais mínimas de 0,55024, sendo desejáveis cargas maiores, segundo a escala de Comrey e Lee;

• Variáveis carregadas em apenas um fator; • Fatores com mais de uma variável.

Em virtude da análise anteriormente feita, julgou-se que essa parametrização forneceria consistência suficiente para validação quantitativa dos procedimentos adotados para aplicação do método selecionado – o KMD.

Então, a formulação de iniciativas de GC baseadas nos fatores identificados consistiu em estabelecer correspondência entre esses fatores e os programas de ação dos desafios do framework do KMD. Uma vez estabelecida essa correspondência, os respectivos planos de ação foram interpretados buscando identificar os seus objetivos, com base nos quais foram propostas as iniciativas. Após a formulação das iniciativas, buscou-se na literatura pesquisada, indicadores compatíveis com as iniciativas, de forma a compor uma proposta integrada e consolidada de BSC a ser oferecida para a UCB.

Na etapa de consolidação de iniciativas e indicadores, foi feita a justaposição de todas as iniciativas e todos os indicadores em um único scorecard, visando identificar ajustes possíveis ou necessários, bem como distribuindo-os adequadamente, segundo a percepção do pesquisador, nas perspectivas do BSC da UCB.

24 Considerando que a ferramenta SPSS apresenta as cargas fatoriais com três casas decimais, ao

se usar a escala de Comrey e Lee (apud LAROS, 2004, p.179), acrescentar-se-á um zero ao valor da escala para comparação.

94

5. APURAÇÃO E ANÁLISE DOS RESULTADOS

Documentos relacionados