• Nenhum resultado encontrado

CAPÍTULO 2 MATERIAL E MÉTODO

2.3 A geração e a análise dos dados

2.3.2 Instrumentos de análise de dados

2.3.2.1 Os Questionários

O material das questões fechadas foi processado pelo software Statistical Package for Social Science (SPSS)12 versão 11.0, que é um pacote estatístico facilitador ao trabalho de análise numérica.

Segundo Pereira (2001), os pacotes estatísticos são utilizados principalmente, pelos pesquisadores de diversas áreas que não podem deixar de ter noções básicas sobre as técnicas das quais se utilizam, mas, que não têm a preocupação em conhecer toda a complexidade dos conceitos da Estatística, enquanto ciência.

Para o processamento no software, a exemplo de LAGE (1998), formulou-se uma tabela disjuntiva das variáveis questionadas (figura 11), o que possibilitou as análises de freqüência absoluta e relativa, para a descrição geral das respostas; análises de freqüências cruzadas, por tabelas de contingência, cujos resultados se prestaram para a formulação de algumas hipóteses preliminares, e análises multivariadas, por Cluster e Fatorial por Elementos Principais, no sentido de ampliar o caráter exploratório e a descrição dos agrupamentos de variáveis.

Na figura seguinte, cada linha representa um questionário digitado e cada coluna refere-se a uma opção marcada pelo respondente no formulário de coletas.

Com exceção de algumas colunas preenchidas por números absolutos ou por texto, as demais, contendo o número 1,00, são as que foram assinaladas e aquelas com o número 2,00, foram deixadas em branco no momento da resposta. A soma dos valores assinalados, 1,00 e 2,00, refere-se a cem por cento das marcações.

Figura 11 Matriz disjuntiva de variáveis

Crespo (1996) explicou que as freqüências referem-se ao número de vezes em que um determinado fato, uma classe ou um valor é repetidamente observado na amostra. As freqüências absolutas (fi) mostram os valores reais, concretos. Já as freqüências relativas (fri)

descrevem a razão entre a freqüência absoluta de um elemento e o valor total do conjunto observado (fri=fi/total). Este índice pode ser expresso em percentuais (%) a exemplo deste

trabalho.

As Tabelas de Contingência são caracterizadas por proporcionar o exame conjunto de um grupo de variáveis. Nesta pesquisa foram utilizadas tabelas de dupla entrada, bivariadas 2x2, com duas colunas e duas linhas. Esse tipo de arrumação requer que se

Não assinalada Opção assinalada

comprove um padrão proposital, não aleatório, que sugira relação entre os valores contingenciados (PEREIRA, 2001).

Diversas medidas de relação podem ser adotadas para verificar a coesão entre variáveis de uma tabela de contingência. Nesta pesquisa, utilizou-se o P valor de 0,05%, baseado em uma medida de qui-quadrado, informando a possibilidade de que há 95% de chance do evento observado ser verdadeiro, não aleatório (BEILGUELMAN, 1996).

Quanto às análises multivariadas, Pereira (2001) informou que são abordagens analíticas que englobam o comportamento de muitas variáveis simultaneamente. Para ele, tais análises envolvem grande multiplicidade de conceitos matemáticos e estatísticos, de difícil entendimento para pesquisadores de outras áreas. Estes cientistas precisam ter apenas o conhecimento essencial para interpretá-las.

O exame Fatorial, bem como, aquele com base em Clusters, leva em conta o princípio da mensuração geométrica das distâncias entre os objetos examinados (distâncias euclidianas) visando a diminuição da complexidade analítica na sugestão de grupos. Por exemplo, somando-se as opções assinaladas em cada uma das 64 questões do instrumento de coletas, 421 itens seriam observados. Conseqüentemente, o estudo individual destas variáveis seria quase impossível. Assim, para propiciar o entendimento deste contexto obtiveram-se agrupamentos ou classes de variáveis, partindo-se de análises multivariadas. Houve a diminuição do todo a ser pormenorizado, sem que se perdessem suas características básicas.

A análise de clusters parte de aproximações entre dois objetos ou variáveis, o conjunto formado por estes dois elementos será juntado a um terceiro, o conjunto formado pelos três elementos, aproxima-se de um quarto, assim sucessivamente. Nas palavras de Pereira (2001, p. 111):

[...] Nesse tipo de análise as distâncias entre os objetos estudados [...] (variáveis) são calculados e, a seguir, os objetos são agrupados conforme a proximidade entre eles. Primeiro, constituem um grupo inicial os dois objetos mais próximos, em seguida, verifica-se qual o objeto seguinte que se localiza mais próximo ao centro desse

primeiro grupo constituído e forma-se um novo grupo e, assim sucessivamente, até que todos os objetos são reunidos no grupo total de todos os objetos estudados [...].

Essa análise é representada graficamente pelo dendrograma, que simula a caminhada efetuada pelo trabalho de agrupamento. Ele mostra, mediante linhas horizontais e conexões, onde houve uma fusão entre os objetos. Este gráfico consta na figura 26, na página 113 dos resultados e discussões.

Percorrer a análise do dendrograma em direção inversa, também é aconselhável. Mas é preciso, por este ângulo, entender que a porção inicial do gráfico é constituída pelo grupo de todos os elementos, e que, este grupo se partiu em outros dois, que por sua vez, também se bipartiram originando outros quatro e assim, sucessivamente até que, no final, cada linha culmine em um único elemento.

A análise fatorial possibilita a visualização em um espaço geométrico, no qual, os objetos podem ser aproximados e nomeados enquanto um grupo ou classe. Ela, também, permite observar quais as relações entre estas classes devido a suas disposições ao longo de eixos fatoriais. Tal arrumação pode ser observada na figura 31, página 135, da análise de resultados. Em síntese, este tipo de processamento parte da correlação mutua de todas as variáveis envolvidas.

Segundo Lage (1998, p. 77), o agrupamento fatorial possibilita “esboçar a estrutura da representação e analisar o impacto das variáveis explicativas”.

Após o processamento do material coletado, o relatório emitido pelo software foi analisado em reuniões de orientação, nas quais, se faziam presentes os mestrandos envolvidos com o uso do questionário. Por vezes, outros membros do GPEP participaram das discussões sobre o material. Ressalta-se que as trocas de experiências, informações e entendimentos, nesse tipo de trabalho, foram importantes para o aprofundamento das análises.

Algumas críticas foram levantadas e discutidas. A principal delas referia-se ao fato da maior parte dos estudantes consultados situar-se na faixa etária de 11 a 13 anos.

Assim, as freqüências apresentadas não diziam da opinião de sujeitos pertencentes a todas as faixas etárias em igual proporção. Este viés pôde ser amenizado considerando-se a contextualização dos dados numéricos, pela produção oral.

2.3.2.2 As Entrevistas

O material discursivo gravado foi transcrito. Dele inicialmente, foram extraídas as falas que melhor ilustrassem os resultados do questionário. Seguiu-se a orientação de Gaskell (2002, p. 71) que enfatizou ser “[...] essencial quase que viver e sonhar as entrevistas – ser capaz de relembrar cada ambiente entrevistado, e os temas-chave de cada entrevista [...]”.Visando uma melhor apropriação dos sentidos, além do contato no trabalho de entrevistar e transcrever, realizaram-se múltiplas leituras desse material, sempre cuidando por anotar as impressões levantadas, os trechos representativos e as hipóteses interpretativas preliminares.

Nesse movimento de incorporação do material verbal, visou-se, a todo momento, compreender e levantar trechos consensuais e os dissensos. Portanto, além de identificar a recorrência de temas e subtemas, importante foi evidenciar as exceções, pois, o contraponto dinamiza as trocas comunicativas enriquecendo o processo de emergência e a dinâmica das representações sociais.

As falas foram processadas pelo programa Analyse Lexicale par Contexte d’un Ensemble de Segments de Texte (ALCESTE), que foi desenvolvido em 1979 pelo Professor Max Reinert. Ele realiza múltiplas análises de texto partindo de uma base escrita (KRONBERGER; WAGNER, 2002; MILANI, 2002).

Esse programa não levanta os sentidos do discurso, mas trabalha com técnicas de associação de palavras. Assim, realiza uma contagem e agregação de léxicos, baseando-se em freqüências e índices de associação. Nele, tanto podem ser processados textos de jornais, revistas, livros, quanto material discursivo transcrito, segundo Kronberger; Wagner (2002).

É também uma metodologia, porque o programa integra uma grande quantidade de métodos estatísticos sofisticados em um todo orgânico que se ajusta perfeitamente ao seu objetivo de análise de discurso (KRONBERGER; WAGNER, 2002, p. 426).

O relatório emitido pelo ALCESTE, após o processamento de dados, refere-se à descrição geral do conteúdo verbal. O pesquisador que dele se utiliza serve-se de um instrumento eficaz para estudos exploratórios (KRONBERGER; WAGNER, 2002).

Na análise de ALCESTE, alguns critérios precisam ser considerados, dentre eles, destaca-se que o texto precisa ser coerente, enfocando um assunto específico e deve possuir um tamanho mínimo de 10.000 palavras ou cerca de 50.000 caracteres.

Em ALCESTE, uma afirmação é considerada uma expressão de um ponto de vista, isto é, um quadro de referência, dita por um narrador. Este referencial traz ordem e coerência às coisas sobre as quais se está falando. Quando se estuda um texto produzido por diferentes indivíduos, o objetivo é compreender os pontos de vista que são coletivamente partilhados por um grupo social em um determinado tempo. Quando se pensa sobre um objeto, existem sempre diferentes e contrastantes pontos de vista. O pressuposto de ALCESTE é que pontos diferentes de referência produzem diferentes maneiras de falar, isto é, o uso de um vocabulário específico é visto como uma fonte para detectar maneiras de pensar sobre um objeto. O objetivo de uma análise com ALCESTE, portanto, é distinguir classes de palavras que representam diferentes formas de discurso a respeito do tópico de interesse (KRONBERGER; WAGNER, 2002, p. 427).

Uma afirmação é reconhecida como unidade contextual ou Unidade de Contexto Elementar (UCE). Cada unidade é um recorte de texto efetuado pelo programa levando-se em conta a pontuação e o tamanho de cada um destes trechos discursivos (KRONBERGER; WAGNER, 2002).

Conseqüentemente, por tomar como base a análise do vocábulo, ou léxico, se faz necessária uma preparação prévia do material escrito para que os erros ortográficos sejam corrigidos e determinados símbolos gramaticais sejam substituídos.

Os gráficos e tabelas, que representam os dados do questionário, foram organizados em blocos, correspondentes a cada classe do dendrograma ou da análise fatorial. No capítulo de Discussão e Análise dos Resultados, esta arrumação será detalhada.