• Nenhum resultado encontrado

3. ASPECTOS METODOLÓGICOS DA PESQUISA

3.7 Tratamento dos dados

3.7.1 Explicações sobre os programas SPSS, LimeSurvey, TOSMANA e Iramuteq

análise e interpretação, não eximindo a atuação ativa do pesquisador na adoção de um método de análise coerente e pertinente ao tema e à orientação epistemológica” (MOZZATO; GRZYBOVSKI, 2011, p. 743). Uma das expectativas é que o gerenciamento dos dados se torne mais fácil com a utilização dos computadores (FLICK, 2009).

Para elucidação sobre o tratamento e gerenciamento dos dados por meio de programas (softwares) específicos, cabe destacar algumas das características e alternativas que são oferecidas por essas ferramentas.

O SPSS (Statistical Package for the Social Sciences) é uma programa de análise estatística que permite, dentre um gama de cálculos quantitativos, calcular o coeficiente do Alfa de Cronbach, conforme Figura 3.4.

Figura 3.4: Obtenção do coeficiente de Alfa de Cronbach

Fonte: SPSS

e selecionar o modelo “Model: Alfa”, basta clicar no botão para definir as estatísticas a calcular, onde é orientado a seleção das opções “Descriptives” (para produzir as estatísticas descritivas para cada um dos itens), “Scale” (para produzir a estatística descritiva para o total da escala) e “Scale if item deleted” (para calcular a evolução do a se cada um dos itens for eliminado da análise). Por fim, os autores (2006) indicam marcar a opção “Correlations” na área “Inter-item” para calcular a correlação inter-itens e o R2 (coeficiente de determinação linear) entre cada um dos itens e os restantes deles, conforme Figura 3.5.

Figura 3.5: Obtenção do coeficiente de Alfa de Cronbach

Fonte: SPSS

Como resultado, a Tabela 3.2 apresenta a saída do programa SPSS com as estimativas do Alfa de Cronbrach e do Alfa de Cronbach estandaridizado que são 0,770 e 0,811 respectivamente, no caso específico da escala da variável “razões determinantes para formação de rede”.

Tabela 3.2: Saída do SPSS com resultado do Alfa de Cronbach

Reliability Statistics Cronbach's Alpha Cronbach's Alpha Based on Standardized Items N of Items ,770 ,811 7

O LimeSurvey é uma ferramenta que auxiliou na elaboração de questionários on-line em dois idiomas (Aexos 3 e 4). Além da criação de diversos tipos de questões, possibilita gerar relatórios com estatísticas básicas sobre os dados, conforme Figura 3.6.

Figura3.6: Obtenção das resposta e estatística pelo LimeSurvey

Fonte: LimeSurvey

Depois, selecionou-se apenas os questionários com respostas completas e o formato de saída em Excel. E, ainda, gerou-se saída nos formatos *.html e *.pdf, conforme Figura 3.7.

Figura 3.7: Saídas do LimeSurvey

Para o tratamento dos dados do questionário, por meio da Análise Qualitativa Comparativa (Crisp-Set Qualitative Comparative Analysis – csQCA), utilizou-se o programa Tosmana, importando os dados de arquivo na extensão *.dat (salvo nesse formato pelo SPSS).

Figura 3.8: Dados tratados pelo programa Tosmana

Fonte: Tosmana (2010)

No csQCA todas as condições hipotéticas e o resultado devem ser dicotômicas, assim para ver a relação causal entre, por exemplo, a configuração da rede (condição) e o desempenho inovativo (resultado) tem-se que dicotomizar os dois conceitos (0 ou 1), conforme Figura 3.9.

Figura 3.9: Ferramenta ‘(MV)QCA’ no programa Tosmana

Oliveira (2012) explica que na janela de análise de dados há diversos campos, como se observa na Figura 3.9, com destaque para:

i. Not used: esse campo apresenta todos os rótulos da tabela; ii. Case Descriptor: os casos a serem analisados;

iii. Outcome: variável dependente do estudo realizado. Ela pode ser uma variável dicotômica ou não. Caso seja uma multi-value outcome, há possibilidade de explicação de vários tipos de resultados (outcome);

iv. Conditions: conjunto de variáveis que serão objeto da análise;

v. Contradiction: exclui ou não da análise os casos apresentados que possuem as mesmas condições, porém resultados contraditórios;

vi. Remainders: são os remanescentes lógicos. Eles são utilizados para obter mais parcimônia nos resultados das equações lógicas, sendo importante para a realização das minimizações lógicas; e

vii. Após, o preenchimento dos campos e a definição das variáveis a serem examinadas, solicita-se para o programa Tosmana realizar as análises, clicando em no botão “go”, localizado no canto inferior direito.

Os remanescentes lógicos (remainders) são combinações de condições logicamente possíveis que não foram observadas entre os casos empíricos ou que, mesmo sendo observadas entre os casos, podem ser descritas por uma expressão lógica mais curta (minimização booleana), então, essas combinações supérfluas são excluídas com a utilização de software para o processo de minimização (RIOUX; DE MEUR, 2009).

Realizando os procedimentos da ferramenta (MV)QCA, no software Tosmana, abre-se uma nova tela, em que é apresentado um relatório com o resultado da análise. Para exemplificar, conforme Figura 3.10, utiliza-se a variável “Configuração (tipos de redes)” em relação ao outcome dicotômico com valor 1 (um), significando presença do desempenho inovativo ótimo, caso contrário, teria o valor 0 (zero), que representa ausência do alto desempenho na dimensção da inovação, isto é, um desempenho inovativo péssimo. Como resultado, pode-se observar que há apenas uma equação lógica que define as condições necessárias e/ou suficientes para o alcance do desempenho inovativo ótimo.

Figura 3.10: Saída de resultados pelo Tosmana

Fonte: Tosmana (2010)

Além disso, o Tosmana permite ao usuário exibir conjuntos de dados booleanos com até no máximo cinco condições (indicadores) para ser exibida graficamente. Para fazer isso, basta selecionar as condições na janela (MV)QCA e pressionar o botão Visualize (vide figura 3.9). Um exemplo de janela do visualizador pode ser visto no exemplo da Figura 3.11:

Figura 3.11: Visualização dos dados booleanos em conjuntos

Na fase da Análise de Conteúdo das entrevistas utilizou-se como ferramenta de apoio o Iramuteq. De acordo com LACCOS (2014), trata-se de um software que disponibiliza distintos tipos de análise de dados textuais, os simples, como a lexicografia básica, que abrange a lematização e o cálculo de frequência de palavras; até análises multivariadas como classificação hierárquica descendente, análise pós-fatorial de correspondências e análises de similitude. Por meio desse software, utilizou-se o cálculo de frequência de palavras (nuvem de palavras) e a análise de similitudes, cuja distribuição do vocabulário foi organizada em figuras para facilitar a compreensão e visualização com representações pautadas nas análises lexicográficas.

Figura 3.12: Programa Iramuteq para uso das ferramentas análise de similitudes e nuvem de palavras

Clica-se nas opções ‘Análise de Similitudes’ (destacada na figura 3.12) e ‘Nuvem de Palavras’ (item imediatamente abaixo), que em francês são ‘Analyses de similitudes’ e ‘Nuage de mots’, respectivamente, onde as representações podem ser observadas na Figura 3.13.

A análise de similitudes e a nuvem de palavras, viabilizada por esse programa informático, organiza a distribuição do vocabulário de forma facilmente compreensível e visualmente clara (CAMARGO; JUSTO, 2013). A análise de similitudes baseia-se na teoria dos

grafos e possibilita identificar as coocorrências entre as palavras. O resultado traz indicações da conexidade entre as palavras, auxiliando na identificação da estrutura da representação. A nuvem de palavras é outra ferramenta, mas de análise mais simples, que trabalha com a representação gráfica em função da frequência das palavras (LACCOS, 2014).

Figura 3.13: Análise de similitudes e Nuvem de palavras

Fonte: Camargo et al. (2012) e LACCOS (2014).

Na nuvem de palavras não são incluídas aquelas mais comuns que representam vícios de linguagem ou que são muito frequentes e não representam significado à análise como, por exemplo, pronomes e artigos. Algumas das palavras retiradas são exemplificadas a seguir: é, você, né, então, isso, pra, está, não, sim, tem, mas, por, uma, um, tem, ele, ela, acho, os, as, do, etc.

Estas análises foram realizadas a partir de um grupo de textos a respeito de uma determinada temática (corpus) reunidos em um único arquivo de texto. Para Camargo e Justo (2013, p. 516), “o software IRAMUTEQ apresenta rigor estatístico e permite aos pesquisadores utilizarem diferentes recursos técnicos de análise lexical”.

ambas serão definidas e desenvolvidas segundo as diferentes matrizes paradigmáticas escolhidas (MOZZATO; GRZYBOVSKI, 2011). Logo, segundo Vergara (2011, p. 762) “o rigor, tão ressaltado pelo positivismo, encontra lugar tanto na pesquisa dita quantitativa quanto na qualitativa. A questão é como se expressa o rigor em cada método de pesquisa”. Assim, há um resumo no Quadro 3.12 das etapas de desenvolvimento da análise/tratamento dos dados.

Com os resultados obtidos, o pesquisador irá retornar às proposições formuladas e confirmar suas relações de influências ou não, conferindo as devidas explicações.

Quadro 3.12 – Fases da análise dos dados

Fase Atividade

Cálculo de confiabilidade

Utilização do SPSS para calcular o Coeficiente Alfa de Cronbach para a confiabilidade do questionário

Preparação e utilização dos dados

Preparação dos dados coletados por meio do LimeSurvey (questionário on-line) para geração de tabelas e gráficos de frequência

Gravação das entrevistas por meio do programa ‘Gravador de Som’, contido no Windows

Análise Comparativa Qualitativa

o LimeSurvey viabilizou a exportação dos dados para planilha do excel, que foi importado pelo Tosmana

Exportação dos códigos do programa LimeSurvey para o Excel e também para o SPSS e Importação dos dados do SPSS, utizando a extensão Tab delimited (*.dat), para o Tosmana. As variáveis foram categorizadas e transformadas para dados dicotômicos, isto é, quando o respondente marcar a existência na rede, sua presença recebe o valor um (1) e ausência o valor zero (0).

Utilização dos dados dicotômicos no programa Tosmana, que utiliza os princípios da Análise Comparada Qualitativa de Dados Dicotômicos ( Crisp-Set Qualitative

Comparative Analysis – csQCA)

Realização de análise empregando para proposta de modelo Teórico-Analítico.

Análise de Conteúdo

Contratação de profissionais para fazer a transcrição das entrevistas gravadas em textos do Word.

Leitura de todas as entrevistas transcritas, ouvindo as entrevistas realizadas pelo pesquisador e confrontando com o áudio e as respostas dos questionários .

Transformação dos arquivos para o formato Texto (*.txt) para utilização na análise textual pelo programa Iramuteq, que facilita a análise de conteúdo no registro e na quantificação dos termos encontrados.

Leitura exaustiva de todas as entrevistas para fazer a concentração de ideias centrais contidas nas respostas de cada questão, classificando-as em núcleos de sentidos. Fonte: elaboração própria

Por fim, “a ciência é, portanto, elucidativa (resolve enigmas, dissipa mistérios), enriquecedora (permite satisfazer necessidades sociais e, assim, desabrochar a civilização); é, de fato, e justamente, conquistadora, triunfante (MORIN, 2005, p. 15-16)”.

4. ANÁLISE E DISCUSSÃO DOS RESULTADOS DOS ESTUDOS-PILOTO