• Nenhum resultado encontrado

2.1.3.1 Matriz de Covariˆancia

As matrizes de covariˆancia s˜ao ferramentas necess´arias na an´alise multivariada de dados. Se uma observa¸c˜ao multivariada ´e tomada, um total de n observa¸c˜oes podem criar uma nuvem de dados nesse espa¸co. O objetivo da an´alise multivariada de dados ´e encontrar e descrever a estrutura da nuvem desses dados. Dessa forma, os arranjos da matriz de covariˆancia s˜ao um requisito b´asico para a an´alise da confiabilidade, dispers˜ao ou associa¸c˜ao desse conjunto de dados [37].

A medida retornada pelo c´alculo da covariˆancia entre duas vari´aveis aleat´orias nos informa quantitativamente o grau de relacionamento linear entre as mesmas vari´aveis. Contudo, na medida de covariˆancia n˜ao existem valores de referˆencia de m´aximos e m´ınimos que indiquem a for¸ca da rela¸c˜ao de associa¸c˜ao entre as vari´aveis em investiga¸c˜ao. A express˜ao matem´atica (2.1) que define o c´alculo da covariˆancia entre os valores da i-´esima e j-´esima vari´aveis de um vetor aleat´orio x ´e Cov (xi,xj) = 1 n n X k=1 (xik− xi)(xjk − xj), ∀k = 1, 2, 3, . . . , n (2.1) ´

interessante armazen´a-las em uma matriz, a fim de se poder vislumbrar todas as associa¸c˜oes de covariˆancias poss´ıveis entre as vari´aveis. A essa matriz de valores chamamos matriz de covariˆancia. Representamos a seguir em forma de matriz, as covariˆancias do vetor aleat´orio x, em que X = x · xt

Cov (X) = V (X) = Σp×p =      σ11 σ12 . . . σ1p σ21 σ22 . . . σ2p ... ... ... ... σp1 σp2 . . . σpp     

A matriz de covariˆancia ´e sim´etrica, ou seja, o elemento σij = σji, i, j = 1, . . . , p.

2.1.3.2 Matriz de Correla¸c˜ao

Frequentemente ´e comum, em pesquisas que analisam dados, que surjam problemas que envolvem uma s´erie de vari´aveis. Dessa forma, torna-se de grande utilidade para a solu¸c˜ao dos mesmos a determina¸c˜ao de uma rela¸c˜ao entre essas vari´aveis. Logo, deve-se procurar a melhor compreens˜ao para essa rela¸c˜ao. Essa melhor rela¸c˜ao pode, em alguns casos, ser alcan¸cada atrav´es da utiliza¸c˜ao de uma estrutura de correla¸c˜ao. Segundo [37], existe uma correla¸c˜ao entre duas vari´aveis quando uma delas est´a, de alguma forma, relacionada `a outra.

A correla¸c˜ao cuja express˜ao matem´atica apresenta-se de modo mais comum para se trabalhar com dados em pesquisas quantitativas ´e a correla¸c˜ao linear (2.2). Para se obter tal correla¸c˜ao, usa-se o coeficiente de correla¸c˜ao linear de Pearson (ρij), o qual recebe tal denomina¸c˜ao em homenagem ao seu desenvolvedor, Karl Pearson (1857-1936), dado por [37] ρij = Pn k=1(xik− xi)(xjk− xj) pPn k=1(xik− xi)2 pPn k=1(xjk − xj)2 (2.2) ´

E importante destacar tamb´em que, assim como ´e poss´ıvel nas estruturas de co- variˆancia organizar uma s´erie de dados em uma matriz, nas estruturas de cor- rela¸c˜oes isso tamb´em ´e poss´ıvel. A esse arranjo de valores chamamos de matriz de correla¸c˜ao. Representamos a seguir, em forma de matriz, as correla¸c˜oes do vetor

aleat´orio x [37]: Σp×p=        1 ρ12 ρ13 . . . ρ1p ρ21 1 ρ23 . . . ρ2p ρ31 ρ32 1 . . . ρ3p ... ... ... ... ... ρp1 ρp2 ρp3 . . . 1       

A matriz de correla¸c˜ao ´e uma ferramenta estat´ıstica extremamente necess´aria para o tratamento de dados de medi¸c˜ao dos mais variados processos. Sua t´ecnica fornece uma vis˜ao em medi¸c˜oes do processo e produz sa´ıdas ´uteis que podem ser usadas em outras an´alises de dados, tais como em outros m´etodos de an´alises de processos, como ´e o caso da an´alise de componentes principais. Nas se¸c˜oes a seguir veremos como se d´a o c´alculo da extra¸c˜ao de componentes principais para um conjunto de dados qualquer.

Por´em, ainda sobre o coeficiente de correla¸c˜ao linear de Pearson, verifica-se que ele pode ser uma ferramenta importante para estabelecer as rela¸c˜oes entres as vari´aveis avaliadas em um conjunto de dados, o qual ´e caracterizado por [37] pelos seguintes n´ıveis de correla¸c˜ao:

i) |ρ| > 0, 70 - Correla¸c˜ao Forte;

ii) 0, 30 > |ρ| > 0, 70 - Correla¸c˜ao Moderada; iii) 0 > |ρ| > 0, 30 - Correla¸c˜ao Fraca.

O coeficiente de correla¸c˜ao Pearson varia de -1 a 1. O sinal indica dire¸c˜ao positiva ou negativa do relacionamento e o valor sugere a for¸ca da rela¸c˜ao entre as vari´aveis. Uma correla¸c˜ao perfeita (-1 ou 1) indica que o escore de uma vari´avel pode ser determinado exatamente ao se saber o escore da outra [37].

A matriz de correla¸c˜ao pode ser analisada por decomposi¸c˜ao em fatores ou parcelas, buscando a extra¸c˜ao de caracter´ısticas fundamentais dos conjuntos cujos dados est˜ao sob an´alise. Estes assuntos, bem como a qualidade dos dados, est˜ao tratados nas se¸c˜oes seguintes deste cap´ıtulo.

2.1.3.3 Testes de dados para a An´alise Fatorial

A qualidade dos dados ´e importante no sucesso da an´alise da matriz de dados. Para isso, ´e necess´ario, antes de se iniciar a sua decomposi¸c˜ao para uma an´alise fatorial,

que seja feito alguns testes na matriz do conjunto de dados, a fim de se investigar a efic´acia e a viabilidade da utiliza¸c˜ao do m´etodo. Dois testes poss´ıveis se destacam na literatura, s˜ao eles, o de Esfericidade de Bartlett e a Medida de Adequac˜ao da Amostra de Kaiser-Meyer-Olkin (KMO) para analisar a estrutura de correla¸c˜ao dos dados quanto `a sua adequa¸c˜ao ou n˜ao `a aplica¸c˜ao da an´alise por fatores ou parcelas [37]. De acordo com [39] e [36] esses testes, por conseguinte, tamb´em validam a aplica¸c˜ao da an´alise de componentes principais, indicando dessa forma o grau de correla¸c˜ao entre os dados estudados. De acordo com [37], o objetivo desses dois testes s˜ao:

i) Teste Kaiser-Meyer-Olkin (KMO) - indica a propor¸c˜ao da variˆancia dos dados que pode ser considerada comum a todas as vari´aveis, ou seja, que pode ser atribu´ıda a um fator comum, ent˜ao: quanto mais pr´oximo de 1 (unidade) melhor o resultado, ou seja, mais adequada ´e a amostra `a aplica¸c˜ao da an´alise fatorial.

ii) Teste de esfericidade de Bartlett - testa se a matriz de correla¸c˜ao ´e uma matriz identidade, o que indicaria que n˜ao h´a correla¸c˜ao entre os dados. Dessa forma, procura-se para um n´ıvel de significˆancia assumido em 5% rejeitar a hip´otese nula de matriz de correla¸c˜ao ser uma matriz identidade.