• Nenhum resultado encontrado

1 1 2 ) 1 ( ) ( nV nPn VnT i v i v dw

  [33]

O tratamento da análise de regressão no seu âmbito global, passa a dar sustentação à análise fatorial.

3.3.6 Análise fatorial

A análise fatorial é uma das técnica de análise multivariada. Quando se emprega este tipo de análise se está, freqüentemente, com interesse no comportamento de uma variável ou grupos de variáveis em co-variação com outras (Demo, 2000).

As técnicas de análise multivariada, na concepção de Camargo (2006), são úteis para descobrir similaridades no comportamento de duas ou mais variáveis, bem como para testar modelos alternativos de associação entre tais variáveis, incluindo a determinação de quando e como dois ou mais grupos diferem em seu perfil multivariado.

Quando se analisam os dados associados, conforme Martins (2001), se espera explicar variações de acordo com um ou mais dos seguintes pontos de vista:

A – Determinação da natureza e do grau de associação entre um conjunto de variáveis dependentes e um conjunto de variáveis independentes.

B – Encontrar uma função ou fórmula pela qual pode-se estimar valores das variáveis dependentes a partir das variáveis independentes, o chamado problema da regressão.

C – Estabelecer a significância estatística associada aos itens anteriores. A análise fatorial, em sua versão original busca determinar os fatores ortogonais que descrevem aproximadamente e sucessivamente os vetores- resposta de indivíduos a um conjunto constituído por testes psicológicos, relaciona-se com os trabalhos de Karl Pearson e Charles Spearman. Este último trata, pela primeira vez, do que hoje se conhece como as variáveis latentes já mencionadas (Corrar, Paulo, Dias Filho, 2009).

A análise fatorial conforme Tiboni (2010), não se refere a uma única técnica estatística, mas a uma variedade de técnicas relacionadas para tornar os dados

observados mais facilmente e diretamente interpretados. Este procedimento é efetuado pela análise dos inter-relacionamentos entre as variáveis de tal modo que estas possam ser descritas convenientemente por um grupo de categorias básicas, em número menor que as variáveis originais, chamado fatores. Logo tem-se como objetivo da análise fatorial é a parcimônia, procurando definir o relacionamento entre as variáveis de modo simples e usando um número de fatores menor que o número original de variáveis (Camargo, 2006).

Assim, um fator é um construto, uma entidade hipotética, uma variável não observada, que se supõe estar subjacente a testes, escalas, itens e, de fato, medidas de qualquer espécie. Como construtos, os fatores apenas possuem realidade no fato de explicarem a variância de variáveis observadas, tal como se revelam pelas correlações entre as variáveis sendo analisadas, ou seja, a única realidade científica que os fatores possuem vem das correlações entre testes ou variáveis sendo pesquisadas, para Aranha e Zambaldi (2008).

Conhecendo-se o grau de relacionamento entre as variáveis, é possível determinar o que realmente é importante ser medido e acompanhado, o que pode ser inferido e projetado a partir do controle de variáveis reduzidas em dimensionalidade. Através da análise fatorial serão definidos os principais índices que explicam grande parte da variação que ocorre em todos os demais índices.

Para a confirmação do modelo utilizou-se a análise fatorial que pode ser exploratória ou confirmatória. A análise exploratória ocorre quando se procura saber quais os fatores que emergem de uma série de dados, que são os principais para explicar um fato, e a confirmatória para confirmar se explicam ou não tal fato, quando já se parte de uma premissa (Hair Jr. et al., 2005).

Quando se emprega este tipo de análise se está, freqüentemente, com interesse no comportamento de uma variável ou grupos de variáveis em co- variação com outras (Reis,1998).

Assim as cargas fatoriais obtidas possuem como efeito reduções de dados complexos à tamanho manuseável para que o pesquisador possa interpretar melhor os resultados (Kerlinger, 1980).

Camargo (2006) salienta que uma matriz de cargas fatoriais é um dos produtos finais da análise fatorial. Uma carga fatorial é um coeficiente, positivo ou

negativo, geralmente menor do que um, que expressa, o quanto um teste ou variável observada está carregado ou saturado em um fator. Logo, quanto maior for a carga sobre um fator, mais a variável se identifica com o que quer que seja o fator.

Sintetizando em termos de análise fatorial, esta, na visão de Aranha e Zambaldi (2008), é essencialmente um método para definir o número de fatores existentes, contemplado por Camargo (2006), em um conjunto de dados, para determinar quais testes ou variáveis pertencem a quais fatores, e em que extensão os testes ou variáveis pertencem a/ou estão saturados com o que quer que seja o fator.

Com a estruturação de uma analise fatorial definida, faz-se necessário, conforme Camargo (2006), recorrer à análise fatorial confirmatória, sendo o conjunto de métodos adequados para verificação da sua validade e adequação empírica, sendo esta determinante na concepção desta tese. Diante disto, a idéia que envolve a análise fatorial é que cada grupo de variáveis representa um construto básico, que é o responsável pelas correlações observadas nas respostas.

As correlações das variáveis empíricas (itens) com os fatores se comprova mediante as cargas fatoriais. As correlações entre os itens são explicadas pela análise fatorial, como resultantes de variáveis-fontes, que seriam as causas dessas covariâncias. Essas variáveis-fontes são os construtos ou traços latentes. A análise fatorial também postula que um número menor de traços latentes (variáveis-fontes) é suficiente para explicar um número maior de variáveis observadas (itens) (Sharma, 1996).

 Método de extração dos fatores

Como método de extração dos fatores utilizou-se o método de Análise de Componentes Principais (ACP), pelo qual se procurou uma combinação linear entre as variáveis, de forma que o máximo de variância fosse explicado por essa

combinação. Análise de Componentes é um modelo fatorial no qual os fatores são baseados na variância total (Manly, 2005).

O objetivo da análise em componentes principais é encontrar uma transformação mais representativa e geralmente mais compacta das observações. O método desta análise visa transformar vetor aleatório X em outro vetor (para n ≤ m) projetando X nas direções ortogonais de maior variância, logo os componentes principais. Objetiva-se com a utilização deste método que um número mínimo de fatores venha a explicar a parcela máxima da variância existente das variáveis originais, ou seja, os índices financeiros.O fator representa a parcela da variação total dos dados que pode ser explicada de forma conjunta para todas as variáveis que o compõem.

A análise de ACP, para Rencher (2002), é um método para decompor uma matriz de dados X de posto r (ou "rank" r), como uma soma de matrizes de posto igual a 1, onde posto é um número que expressa a dimensão de uma matriz. Tem como resultado um novo conjunto de variáveis (componentes principais) relacionados (combinação linear) com cada variável através dos fatores de carregamento. Da mesma forma, cada variável original se relaciona com as novas variáveis pelos fatores de carregamento. Em função da possível heterogeneidade das variáveis originais, os dados da amostra podem ser normalizados para facilitar a interpretação dos resultados gerados e extração dos componentes. Isto pode ser feito pela utilização da matriz de correlações entre as variáveis originais. O PCA é muito utilizado em tratamento de imagens e aplicativos de reconhecimento facial para reduzir o número de variáveis que representam uma imagem.

O número de fatores foi escolhido pelo critério Kaiser (variância explicada de no mínimo 1,0). Critério de Kaiser ou autovalor 1: considera apenas os componentes com autovalor superior a 1, o que significa que o componente contabiliza mais variância do que uma variável.

Foi escolhido o método de rotação ortogonal – Varimax, pois a intenção é facilitar ao máximo o entendimento dos relacionamentos entre as variáveis (fatores). A opção pela rotação Varimax gera dados adicionais para interpretação de resultados.

 Teste KMO (Kaiser-Meier-Olkin) e o de Esfericidade de Bartlett

O Teste de Kaiser-Meier-Olkin, testa a adequação da utilização da análise fatorial. Se a correlação entre as variáveis testadas pelo KMO for pequena, ou seja, o teste KMO for próximo de 0, a utilização da análise fatorial é inadequada. Por outro lado, se esse valor for próximo de 1, a análise fatorial poderá ser empregada.

Malhotra (2001) explica que o teste de Kaiser-Meier-Olkin (Measure of

Sampling Adequacy) indica o grau de explicação dos dados a partir dos fatores

encontrados na Análise Fatorial. Caso o KMO indique um grau de explicação menor que 0,5, os fatores encontrados na Análise Fatorial não conseguem descrever as variações dos dados originais de maneira satisfatória.

O Teste de Esfericidade de Bartlett é utilizado para analisar a matriz de correlação como um todo. Noronha (2005) afirma que a matriz de correlação nula deste teste é igual a matriz identidade, ou seja, não existe correlação suficiente entre as variáveis. Este teta se a matriz de correlação é uma matriz identidade, o que indicaria que não há correlação entre os dados. Este teste rejeita a hipótese nula (H 0) se p<0,05) (Manso, 1998).

 Coeficiente de Alfa de Cronbach

O coeficiente alfa de Cronbach, segundo Hora, Monteiro e Arica (2010), foi apresentado por Lee J. Cronbach, em 1951, como uma forma de estimar a confiabilidade de um questionário aplicado em uma pesquisa. Este testa mede a correlação entre respostas em um questionário através da análise das respostas dadas pelos respondentes, apresentando uma correlação média entre as perguntas. O coeficiente α é calculado a partir da variância dos itens individuais e da variância da soma dos itens de cada avaliador de todos os itens de um questionário que utilizem a mesma escala de medição.

Segundo Litwin (1995) o teste de confiabilidade é imperativo e mede o desempenho de um instrumento em uma dada população evitando o agrupamento de questões aparentemente relevantes.

Nunnally (1978) apresenta como definição de confiabilidade como sendo o grau com que o resultado de um teste permanece com diferenças inalteráveis individualmente em qualquer tratamento, abrangendo o universo e a amostra.

É relevante ressaltar, na visão Hora, Monteiro e Arica (2010), que apesar da literatura científica a respeito das aplicações do coeficiente nas diversas áreas do conhecimento ser ampla e abrangente, ainda não existe um consenso entre os pesquisadores acerca da interpretação da confiabilidade de um questionário obtida a partir do valor deste coeficiente. Não há um valor mínimo definido para o coeficiente alfa de Cronbach ser aceito como bom, mas encontra-se na literatura o valor de 0,70 como mínimo aceitável (Freitas; Rodrigues, 2005; Urdan, 2001; Oviedo; Campo-Arias, 2005; Milan; Trez, 2005). Existem, entretanto, autores que utilizam o alfa sem fazerem nenhuma menção a um mínimo (Salomi et al., 2005; Xexeo, 2001; Miguel; Salomi, 2004; Maçada et al., 2000; Mato; Veiga, 2000).

3.3.7 Análise discriminante

Para procedimento da análise da classificação dos quartis, utilizou-se a análise discriminante, sendo esta definida como técnica estatística multivariada a qual procura levantar relacionamentos entre uma variável não métrica, ou categoria, e um conjunto de variáveis métricas. Segundo Stevenson (1981), consiste em atribuir pesos que separarão tanto quanto possível as médias dos valores de cada grupo e ao mesmo tempo tentará minimizar a distância estatística de cada. Os grupos dos quartis devem ser previamente definidos, conforme Mingoti (2005), pois devem considerar suas características específicas.

De forma geral, procura encontrar uma função ou conjunto de funções que discrimine os grupos definidos pela variável categórica, visando minimizar erros de classificação. Em contexto no qual o conjunto de variáveis independentes possui comportamento probabilístico de normalidade multivariada, a análise

discriminante é adequada, porque minimiza os erros de classificação (Sharma, 1996).

De acordo com Hair Jr. et al. (2005) a discriminação é conseguida estabelecendo-se os pesos da variável estatística para cada variável, para maximizar a variância entre grupos relativa à variância dentro dos grupos.

Outro ponto importante da análise discriminante, é a classificação dos grupos, ou a determinação do escore de corte, que segundo Hair Jr. et al. (2005) é o critério escore em relação ao qual o escore discriminante de cada objeto é comparado para determinar em qual grupo o objeto deve ser classificado.

Para Ferguson (1994), um problema em muitas áreas da análise de dados é quando há dois ou mais grupos de dados formandos por amostras de duas ou mais populações, para as quais um número de características foi medida, e deseja-se classificar objetos similares desconhecidos baseado no mesmo conjunto de características, a análise discriminante tem sido aplicada largamente para esse propósito.

A análise discriminante, tem por objetivos a identificação das variáveis que melhor discriminam entre dois ou mais grupos de indivíduos estruturalmente diferentes e mutuamente exclusivos, a utilização destas variáveis para criar uma função discriminante que represente de forma parcimoniosa as diferenças entre os grupos e a utilização desta função discriminante para classificar à priori novos indivíduos nos grupos (Maroco, 2003).

Estudos efetuados por Altman (1968), Kanitz (1972), Elisabetski (1976), Matias (1978) e Pereira (1982), sobre a previsão de insolvência em empresas, utilizaram como com base a análise discriminante. Sua utilização nos modelos permitiu descobrir as ligações que existem entre um caráter qualitativo a ser explicado e um conjunto de caracteres quantitativos explicativos. Também, permite prever na visão de Bouroche e Saporta (1980), através de um modelo, as modalidades do caráter a ser explicado a partir dos valores tomados pelos caracteres explicativos. O método estatístico de análise discriminante considera um conjunto de indivíduos no qual se observa um caráter qualitativo que toma q (q 2), modalidades

Cada indivíduo é marcado por uma única modalidade desse caráter, definindo-se assim uma partição do conjunto de indivíduos em q classes distintas. Além disso, medem-se p (p  2) caracteres quantitativos nos mesmos indivíduos. Propõe-se o seguinte problema: as q classes diferem no conjunto dos caracteres quantitativos. O objetivo da análise discriminante é responder a essa questão, isto na visão de Johnson e Wichern (1982).

Acrescentou-se à análise discriminante, para verificar a significância das médias, o teste de Wilks que é o mais utilizado para testar a hipótese segundo Khattree e Naik (2000), ainda segundo Maroco (2003) serve para testar a significância das funções discriminantes e é calculado a partir do determinante da matriz da soma dos quadrados e produtos cruzados dentro dos grupos; e do determinante da matriz da soma dos quadrados e produtos cruzados total. O teste de Wilks é representado pela letra grega (lambda maiúsculo), assim definido: