• Nenhum resultado encontrado

III. Avaliação da fiabilidade individual das variáveis observadas

3.7. Validade e fiabilidade de um modelo de medida com um constructo reflexivo

3.7.1. Validade convergente

A validação convergente avalia o grau em que duas medidas do mesmo constructo, que teoricamente devem estar correlacionadas, estão efetivamente correlacionadas. É indicada pela evidência de que diferentes indicadores de constructos teoricamente semelhantes ou sobrepostos são fortemente correlacionadas.

77

A validade convergente demonstra-se quando todas as variáveis observadas de constructos teoricamente semelhantes ou sobrepostos num modelo de medida são estatisticamente significativas, isto é, apresentam correlações positivas e elevadas (Marôco, 2014). A validade convergente também se verifica quando a Variância Extraída Média (AVE – Average Variance Extrated) for superior a 0.50 ou os pesos fatoriais são superiores a 0.7 (Hair et al., 2010).

Para um determinado constructo 𝑗, com 𝑘 indicadores, a AVE é dada por (Marôco, 2014):

sendo 𝜆𝑖 o peso fatorial estandardizado do indicador 𝑖 e 𝜀𝑖𝑗 ≈ 1 − 𝜆2𝑖𝑗 o erro do 𝑘-ésimo indicador do constructo 𝑗.

3.7.2. Validade fatorial

A validade fatorial ocorre quando os indicadores são reflexo da variável latente que se pretende medir.

É usual assumir que se os pesos fatoriais, 𝜆𝑖𝑗, de todos os indicadores forem superiores ou iguais a 0.50, o constructo apresenta validade fatorial. Idealmente devem ser superiores a 0.70 (Hair et al., 2014).

3.7.3. Validade discriminante

A validação discriminante verifica o grau em que um constructo sob estudo é verdadeiramente diferente dos demais. A validade discriminante ocorre quando o modelo de medida não tem variáveis observadas redundantes. Além disso, a raiz quadrada das estimativas AVE, para quaisquer duas variáveis latentes, devem ser maiores que a correlação entre as respetivas variáveis latentes, na lógica de que uma variável latente deve explicar melhor a variância de seu próprio indicador do que a variância de outras variáveis latentes, para fornecer evidências de validade discriminante (Hair et al, 2010).

𝐴𝑉𝐸

̂𝑗 = ∑𝑘𝑖=1𝜆𝑖2

∑𝑘 𝜆𝑖2

78 3.7.4. Fiabilidade interna

A fiabilidade interna mede a consistência interna entre os valores medidos dos indicadores de um constructo. Para medida de fiabilidade interna são utilizados o Alfa de Cronbach e a Fiabilidade Compósita. Os indicadores Alfa de Cronbach e Fiabilidade Compósita devem ser preferencialmente maiores ou iguais a 0.70 para indicar a fiabilidade do constructo (Hair et al., 2010). O Alfa de Cronbach tem uma relação positiva com o número de indicadores – o aumento do número de indicadores, mesmo com o mesmo grau de intercorrelação, aumenta o valor desta medida –, pelo que, para um grande número de indicadores é necessário dispor de outros critérios, nomeadamente a Fiabilidade Compósita que é uma estimativa de confiança menos enviesada do que o Alpha de Chonbach. O seu valor também deve ser superior ou igual a 0.7 para validar a fiabilidade interna do constructo.

As expressões do Alfa de Cronbach (Kline, 2011) e da Fiabilidade Compósita para um constructo 𝑗 são dadas (Marôco, 2014), respetivamente, por:

onde 𝑛 é o número de indicadores e rij é a correlação média de Pearson entre todos os pares de indicadores.

sendo 𝜆𝑖𝑗 o peso fatorial estandardizado do indicador 𝑖 e 𝜀𝑖𝑗 ≈ 1 − 𝜆𝑖𝑗2 o erro do 𝑘-ésimo indicador do constructo..

Segundo Kline (2011), os coeficientes de fiabilidade em torno de 0.90 são considerados "excelentes", os valores em torno de 0.80 são "muito bons" e os valores em torno de 0.70 são "adequados". Assim, para valores superiores ou iguais a 0.7 a fiabilidade do constructo é apropriada, embora possam ser aceitáveis valores inferiores (Hair et al., 2014).

𝛼𝐶𝑗 = 𝑛 𝑟𝑖𝑗 1 + (𝑛 − 1)𝑟𝑖𝑗 (46) 𝐹𝐶𝑗 = (∑ 𝜆𝑖𝑗 𝑘 𝑖=1 ) 2 (∑𝑘𝑖=1𝜆𝑖𝑗) 2 + ∑𝑘𝑖=1𝜀𝑖𝑗 (47)

79

3.8.Reespecificação do modelo

A variação da qualidade do ajustamento do modelo quando são comparados dois modelos pode ser medida por um teste de razão de verosimilhança com a estatística

sendo 𝑓𝑀𝐿𝑟 a função de discrepância ML do modelo restrito e 𝑓𝑀𝐿𝑢 a função de discrepância com um parâmetro livre (Marôco, 2014). A estatística LR tem distribuição 𝜒2

com graus de liberdade calculados pela diferença dos graus de liberdade dos dois modelos. O teste avalia a hipótese nula (𝐻0) que postula que a especificação das variações de pesos fatoriais, das variâncias e covariâncias de fatores e de erros de medida, para o modelo em estudo, são válidas. A estatística de teste de razão de verosimilhança (𝜒2), testa

simultaneamente a extensão em que esta especificação é verdadeira. O valor de probabilidade associado a 𝜒2 representa a probabilidade de obter um valor 𝜒2 que exceda o

valor de 𝜒2 quando a 𝐻

0 for verdadeira. Assim, quanto maior a probabilidade associada a

𝜒2, mais próximo fica o ajuste entre o modelo hipotético (sob 𝐻

0) e o ajuste perfeito

(Byrne, 2012).

Se o modelo apresenta problemas de ajustamento aos dados, é necessário reespecificá-lo ou modificá-lo. Este processo pode ser feito com o auxílio de um número reduzido de transformações, que podem passar pela exclusão, adição ou alteração de parâmetros do modelo, de forma a melhorar significativamente o ajustamento aos dados. Neste processo podem ser incluídas ou excluídas variáveis, observadas ou latentes, pode considerar-se novas relações ainda não especificadas ou excluir outras, correlacionar erros de medida, ou ainda considerar efeitos mediadores (interações).

Os programas de software permitem o cálculo de índices de modificação para estimar a redução ou aumento da estatística 𝜒2 do modelo se uma das ações anteriormente referidas

for implementada para reespecificar o modelo, quando se assumem erros de especificação resultantes do mau ajustamento do modelo aos dados.

Os erros de especificação do modelo podem ser externos ou internos. Quando variáveis irrelevantes são incluídas no modelo ou variáveis substantivamente importantes foram deixadas de fora, ocorre erro externo de especificação e a resolução do problema só pode

𝐿𝑅 = (𝑛 − 1)(𝑓𝑀𝐿𝑟− 𝑓𝑀𝐿𝑢)

80

ocorrer por meio da reespecificação do modelo com base numa teoria mais relevante. Quando são incluídos caminhos não importantes entre variáveis ou são omitidos caminhos importantes, ocorrem erros internos de especificação que podem ser diagnosticados e solucionados usando estatísticas de Wald (estima a alteração do ajuste por meio da eliminação de parâmetros do modelo - aumento previsto no qui-quadrado se um parâmetro estimado anteriormente fosse fixado em algum valor conhecido, por exemplo, zero) e a estatística do Multiplicador de Lagrange (testa e compara o incremento de ajustamento, a partir da inserção de parâmetros específicos no modelo - redução estimada no qui- quadrado se um parâmetro previamente fixado fosse agora estimado) (Mueller e Hancock, 2008; Ullman, 2007).

Depois de um modelo ser especificado novamente, o processo descrito recomeça e esta tarefa pode repetir-se até que se obtenha um modelo que apresenta um bom ajustamento aos dados.

Importa não esquecer que toda e qualquer modificação no modelo só deve ser feita com base na teoria, a não ser que alguma conclusão empírica suporte, fortemente, a definição de novas hipóteses que questionem a teoria existente (Byrne, 2012). O uso cego de índices de modificação pode levar os investigadores a adotar modelos que se desviam de objetivos substantivos originais, sendo imperativo considerar apenas a alteração de parâmetros que têm uma interpretação substantiva clara (Raykov e Marcoulides, 2006).

Além disso, é necessário ter em conta que não existe nenhum modelo que se adeque perfeitamente à realidade. Um modelo modificado deverá passar por uma validação cruzada – com dados diferentes daqueles usados para estimar o modelo anterior – antes de ser aceite. De facto, na tentativa de encontrar o “melhor” modelo corre-se o risco de ter um modelo que, ao ser objeto de grandes modificações para se adequar à amostra em estudo, este não se adeque a outras amostras ou ao universo populacional. Qualquer estratégia de geração de modelos deve estar sujeita a condições - deve-se reconhecer que o modelo resultante é em parte orientado por dados, as modificações devem ser substantivamente significativas e o modelo modificado deve ser avaliado, ajustando-o a uma amostra independente (MacCallum e Austin 2000).

C

APÍTULO

4

83

M

ODELOS DE EQUAÇÕES ESTRUTURAIS COM DADOS OMISSOS

4.1. Introdução

Um problema comum em SEM prende-se com a existência frequente de dados omissos (missing data), problema transversal a todos os tipos de análises de dados.

Os métodos mais comuns de implementação da modelação SEM com dados incompletos são aqueles em que se utiliza o estimador de Máxima Verosimilhança com matrizes de covariâncias estimadas com dados completos, após proceder à correção dos dados, com recurso a metodologias para resolver o problema dos dados omissos que se baseiam, tradicionalmente, em procedimentos ad hoc e que não possuem suporte teórico.

Destes procedimentos podemos citar métodos de exclusão, como listwise deletion e

pairwise deletion, ou métodos de substituição única, como imputação pela média (Mean imputation) ou imputação por regressão (Regression imputation), entre outros. Tal como

acontece em outros métodos estatísticos, os dados omissos geralmente criam grandes problemas para a estimativa de Modelos de Equações Estruturais. A utilização dos métodos convencionais referidos para lidar com este problema, em muitas situações, conduz a estimativas enviesadas. Métodos de Máxima Verosimilhança adequados para lidar com dados omissos, como o método de Máxima Verosimilhança de Informação Completa (Full-Information Maximum Likelihood – FIML), e métodos de substituição múltipla de dados omissos, como a Imputação Múltipla (Multiple Imputation – MI), possuem muito melhores propriedades estatísticas do que os métodos convencionais, sob pressupostos consideravelmente mais fracos, uma combinação rara nos métodos estatísticos.

A implementação destes métodos em softwares de modelação SEM veio facilitar a sua utilização. No entanto, o facto de esta implementação ocorrer em softwares comerciais limitou a sua proliferação. O software R veio colmatar este problema com pacotes como

sem (Fox et al., 2017), lavaan (Rosseel, 2018), lavaan.survey (Oberski,2014),

específicos para a implementação da SEM e que incorporam mecanismos para lidar com dados omissos, ou o Amelia II (Honaker, King & Blackwell, 2011) para imputação múltipla, entre outros.

84

Neste capítulo, será feito o enquadramento teórico da SEM com dados omissos, em particular será feita uma revisão dos mecanismos que conduzem a dados omissos e dos procedimentos para lidar com estes dados no contexto da SEM. Será dada especial atenção aos recursos disponíveis no software R para lidar com os dados omissos neste contexto.