• Nenhum resultado encontrado

Os dados obtidos foram organizados em tabelas Microsoft Excel®, pela facilidade de organização, segregações da amostra, aplicação de filtros e inclusão de novos dados, como aqueles resultantes da criação de fatores, possibilitando a entrada de dados nos demais softwares, SPSS 21.0® e Eviews 8. Além do que foi discutido no Capítulo 3, acerca da extração de fatores pela análise de componentes principais, a pesquisa foi assim operacionalizada.

Para os dados coletados via questionário que envolvem um maior número de questões, foi utilizada a Análise Fatorial Exploratória (AFE) como técnica de redução das variáveis relativas à divulgação de informações da contabilidade de gestão e da contabilidade financeira. Os procedimentos de execução e validação dos resultados foram pautados nos pontos apresentados em Hair et al. (2009), com os seguintes passos:

- Análise das estatísticas descritivas dos dados originais e testes prévios a partir de 30 respostas válidas obtidas, procurando identificar problemas na geração dos fatores ou vieses nas respostas;

- Exclusão das observações com dados perdidos;

- Análise das estatísticas descritivas e matriz de correlação; - Análise fatorial exploratória com matriz não rotacionada;

- Revisão dos dados e nova extração com análise de componentes principais e matriz rotacionada pelo método Varimax, pois resultou em melhor ajuste das variáveis aos fatores.

Tal como descrito no Capítulo 3, a adequação das questões ao teste foi analisada pelos valores de comunalidade acima de 0,6 e os fatores extraídos atenderam ao requisito de autovalor superior a 1,0. Os resultados dos testes de Kaiser-Meyer-Olkin acima de 0,8 para a proporção da variância dos dados comum a todas as variáveis; e de esfericidade de Bartlett, para não correlação das variáveis, significativo a 1%, contribuem para aceitação dos testes realizados, indicativos da adequação do modelo à analise fatorial.

Com objetivo de identificar observações com comportamentos semelhantes, o segundo tratamento dos dados ocorreu por meio da análise de agrupamentos (clusters). Os dados foram submetidos ao teste de agrupamento pelo método aglomerativo hierárquico da ligação completa (vizinho mais distante) com base nas distâncias euclidianas ao quadrado, sem a necessidade de padronização dos dados, pois as variáveis possuem a mesma escala.

Para tal análise, foram utilizadas as respostas dos questionários sobre a divulgação de informações ao CA. Como recomendado por Hair et al. (2009), foram utilizadas as questões que não apresentavam dados semelhantes entre as observações, devido ao objetivo da análise, de identificar grupos diferentes entre si. Para isso, as questões com concentração abaixo de 50% das respostas em um mesmo nível da escala foram consideradas, formando o seguinte conjunto: 1.3; 1.5; 1.6; 1.7; 1.10; 1.11; 1.12; 1.13; 1.14; 1.15; 1.16; 1.17; 1.18.

Após, os agrupamentos obtidos foram submetidos aos testes não paramétricos para diferença entre as subamostras: Kruskal-Wallis para k amostras independentes; e Mann- Whitney para duas amostras independentes. Nesses foram consideradas as demais características das empresas: tamanho (valor do ativo total); resultado contábil (valor do lucro líquido e retorno sobre o ativo-ROA); ACIONCATT; INFLSOC; ESTRANG; INDEPCA; IDADECA; INTCA; DUAL; EXECTT.

Os dados foram testados para três e dois agrupamentos, procurando identificar características que expliquem as diferenças relacionadas ao envio das informações ao CA. Acima de três agrupamentos, os novos clusters são formados por um baixo número de observações, criando subamostras que enfraquecem testes estatísticos. Os resultados são apresentados no tópico 5.1.2, e as análises são restritas ao perfil no uso das informações, pois os testes de regressão para as hipóteses ferem os princípios dos modelos utilizados na pesquisa.

Após, os modelos econométricos apresentados no Capítulo 4 foram testados por meio de regressão múltipla, em que os requisitos necessários são avaliados conforme apresentado em Greene (2003), Gujarati (2006) e Hair et al. (2009). Em todos os casos, foram analisadas as estatísticas descritivas e os coeficientes de correlação entre as variáveis. Devido à diversidade de variáveis, foram utilizados quatro coeficientes de correlação: Pearson, paramétrico, e Spearman, não paramétrico, para variáveis contínuas; correlação ponto bisserial para correlação entre uma variável contínua e outra dicotômica; e correlação phi, nos casos de duas variáveis dicotômicas (LIRA; CHAVES NETO, 2006). Os três primeiros utilizam teste t e o último a estatística da tabela χ² para o teste de hipóteses, com p-valor abaixo de 10%.

Primeiro, para os testes de H1 foi utilizado o modelo de regressão linear múltipla com mínimos quadrados ordinários (MQO). Os testes de adequação e consistência do modelo ao teste de hipóteses envolveram:

- Analisar se as relações entre as variáveis dependentes e independentes são lineares. - O número de observações (n) ser mínimo de 10 para cada variável (k).

- Análise da distribuição normal dos dados das variáveis: requerida das variáveis quantitativas, o desempenho organizacional e o nível de endividamento atenderam à premissa,

pela estatística do teste Jarque-Bera, o que não ocorreu com o tamanho. Para isso, foram excluídas observações atípicas, pelo método gráfico de boxplot. Porém, como há distribuição normal dos resíduos, tal premissa foi relaxada.

- Análise da ausência de correlação perfeita entre as variáveis explicativas – multicolinearidade: foram realizados testes de correlação e do Fator de Inflação da Variância –

Variance Inflation Factor (VIF), com valores esperados abaixo de 10.

- Verificação de comportamento da variância dos resíduos, pelo teste de White, em que é esperado p-valor superior a 0,05, de forma a aceitar a hipótese nula de comportamento homocedástico.

- A soma dos resíduos das equações é igual a zero e sua distribuição é normal. Para o segundo requisito é esperado p-valor superior a 0,05 para o teste Jarque-Bera, aceitando a hipótese nula de que a distribuição seja normal.

- Problemas de autocorrelação dos erros foram testados pela estatística Durbin-Watson, ao nível de 5%, de onde se espera valores próximos a 2. Sendo dados de corte para um ano, problemas de autocorrelação são ditos espaciais e não geram problemas ao teste de hipóteses e ao uso do modelo de regressão linear com MQO.

- A significância individual dos regressores (β) das variáveis independentes foi considerada pelo teste t, com p-valor inferior a 10% para rejeição da hipótese nula do valor do regressor ser zero. O tamanho da amostra, a característica exploratória da pesquisa e a intenção em identificar modelos válidos para análise do sinal de cada regressor, foram consideradas para flexibilizar do nível de significância. Da mesma forma, a significância conjunta do modelo, avaliada pelo teste F, tem como parâmetro p-valor inferior a 10% para rejeição da hipótese nula, de que todos os coeficientes angulares são iguais a zero, ou seja, concluindo assim que há regressão em ao menos um deles.

- O nível de explicação da variância da variável dependente, é analisado pelo coeficiente de explicação R² ajustado. Porém, considerando o grande número de determinantes do desempenho financeiro das organizações, o percentual do R² é aqui considerado se ao menos explicar em parte o desempenho.

Para o segundo conjunto de hipóteses (H2), diante das variáveis dependentes serem binárias, diferentes modelos são encontrados na literatura. A análise de regressão logística (logit) foi considerada adequada para os propósitos da pesquisa (HOSMER; LEWESHOW, 2000). Procura-se identificar variáveis estatisticamente significativas que auxiliem a explicar sobre a probabilidade de as empresas dedicarem maior ou menor ênfase na divulgação de

informações das contabilidades de gestão e financeira ao CA. Os seguintes pontos de validação e adequação foram analisados:

- A relação entre o número de observações e variáveis, da distribuição normal das variáveis e de ausência de multicolinearidade foram tradadas de maneira análoga ao que foi descrito sobre os testes para H1.

- Para os testes de significância estatística individual das variáveis explicativas, a regressão logística utiliza o teste de Wald pelo valor de z, e a análise da significância conjunta pelo teste qui-quadrado para a estatística de razão de verossimilhança LR. Em ambos se procura p-valor significativo a 10%, rejeitando a hipótese nula do regressor ser zero, no primeiro, e a hipótese nula conjunta de todos os coeficientes angulares serem igual a zero, no segundo.

- A análise das previsões do modelo por decis, pela estatística do teste H-L, é indicativo da assertividade do modelo. Os modelos logísticos retornam a probabilidade de ŷ ser igual 1, assumido nesta pesquisa para ŷ > 0,5 enquanto ŷ < 0,5 é indicativo resultado y = 0. O teste de Hosmer e Lemeshow é utilizado como base para o melhor ajuste do modelo, em que se espera p-valor não significativo, superior a 10%, indicativo de bom ajuste pela correta especificação do modelo.

- Por fim, o nível de explicação Pseudo R² McFadden, apesar de demonstrado na pesquisa, não é considerada a melhor forma de decidir sobre o ajuste do modelo (GUJARATI, 2006). O autor propõe a análise do percentual de acertos, pela razão entre o número de resultados corretos sobre o total de resultados possíveis, medida intitulada Count R². Nesta pesquisa os resultados dessa medida são apresentados pelo seu total de acertos, assim como para acertos de ênfase na divulgação de informações ao CA (y = 1), ou a ausente ou reduzida frequência de divulgação (y = 0). Count R² acima de 50% é indicativo de que o modelo mais acerta do que erra na probabilidade dos resultados indicarem a condição observada para a ocorrência (y = 1) ou da ausência de um fenômeno (y = 0).

As equações dos modelos preditos para os testes de hipóteses são numeradas em sequência diferente dos modelos testados e validados nos resultados da pesquisa. Para os primeiros a simbologia utiliza números entre colchetes “[ ]” enquanto os modelos testados seguem numeração entre parênteses “( )”. Essa escolha ocorre pela diversidade de variáveis utilizadas sobre a divulgação de informações da contabilidade de gestão e da contabilidade financeira ao CA, levando a desdobramentos dos modelos inicialmente propostos.

Após os testes descritos, as decisões sobre as hipóteses são apresentadas, bem como as conclusões sobre elas. A principal intenção da pesquisa é identificar as variáveis que apresentam relações estatisticamente significativas e o sinal dessas. Assim, os resultados

apresentados são analisados de forma contingenciada a tal propósito, sem interesse em medir o tamanho do impacto, principalmente pela natureza exploratória da tese e dos modelos apresentados, visto que as principais variáveis utilizadas foram aqui propostas de forma inédita. Discorrido sobre os passos metodológicos utilizados na pesquisa, o próximo tópico apresenta as limitações sobre as escolhas realizadas.