• Nenhum resultado encontrado

Capítulo 3 Opções metodológicas

3.8 O método de Análise de Conteúdo

3.8.1 Procedimento para a análise de conteúdo

Como já referimos anteriormente, para a análise de dados utilizámos a técnica de análise de conteúdo, inserida numa perspetiva de análise de dados de natureza qualitativa.

Na conceção de Bardin (2011), a análise de conteúdo é um conjunto de técnicas de análise das comunicações visando a obter, por procedimentos sistemáticos e objetivos de descrição do conteúdo das mensagens, indicadores (quantitativos ou não) que permitam a inferência de conhecimentos relativos às condições de produção/receção (variáveis inferidas) destas mensagens (Bardin, 2011, p. 47).

Godoy (1995), afirma que a análise de conteúdo, segundo a perspetiva de Bardin, consiste em uma técnica metodológica que se pode aplicar em discursos diversos e a todas as formas de comunicação, seja qual for à natureza do seu suporte. Nessa análise, o pesquisador busca compreender as características, estruturas ou modelos que estão por trás dos fragmentos de mensagens tornados em consideração. O esforço do analista é, então, duplo: entender o sentido da comunicação, como se fosse o recetor normal, e, principalmente, desviar o olhar, buscando outra significação, outra mensagem, passível de se enxergar por meio ou ao lado da primeira.

A primeira fase, a pré-análise, é o momento de organizar o material, de escolher os documentos a serem analisados, formular hipótese ou questões norteadoras, elaborar indicadores que fundamentem a interpretação final. No caso de entrevistas, como foi o nosso caso, elas devem ser previamente transcritas e a sua junção constituirá o corpus da pesquisa. Nesta fase, que envolve a “leitura flutuante” (Bardin, 1997; Esteves, 2006 citados por Coutinho, 2011), ou seja, um primeiro contato com os documentos que serão submetidos à análise, estabelece-se um esquema de trabalho que deve ser preciso, com procedimentos bem definidos, embora flexíveis. Existem algumas regras que é preciso obedecer nomeadamente as exaustividade (deve-se esgotar a totalidade da comunicação, não omitir nada); representatividade (a amostra deve representar o universo); homogeneidade (os dados devem referir-se ao mesmo tema, serem obtidos por técnicas iguais e colhidos por indivíduos semelhantes); pertinência (os documentos precisam adaptar-se ao conteúdo e objetivo da pesquisa) e exclusividade (um elemento não deve ser classificado em mais do que uma categoria). A segunda e terceira fases, são tratadas a seguir com a descrição do que foi o nosso processo de análise de conteúdo

A metodologia global que seguimos teve como base a obra de Laurence Bardin (2011), prestigiada professora da Universidade de Paris e resultou da consulta e análise das propostas de Charles (1999), Coutinho (2011) Marcelo (1992) e Huberman & Miles (2002), além de outras

106

obras sobre a mesma temática a que, como é obvio, recorremos para proceder ao enquadramento teórico-metodológico e questões sobre a instrumentação, como o caso de Quivy & Van Canpenhoudt (1988).

Tendo em conta que o nosso corpus de pesquisa era constituído por entrevistas e, tratando-se estas de um conjunto de dados que é basicamente textual, de tipo discursivo, achamos por bem utilizar uma estratégia de análise de tipo semântico (Ghiglione & Matalon, 1998). Nesta estratégia, as unidade de registos e de contagem correspondem aos temas ou ideias, e são as componentes nucleares para efetuar as análises uma vez que, de acordo com Abric (1989), através delas podemos ter acesso ao núcleo da representação e seria então possível (re)construir também uma visão sobre cada um dos aspetos que se pretendem estudar.

Atendendo ao nível de complexidade da análise que se pretendia, e termos de volume de informação e de processos a realizar, optamos por recorrer a um software informático para tratamento de dados, procurando aproveitar as vantagens que o desenvolvimento tecnológico nos oferece nesse campo e que são recolhidas por Bardin (1977), a saber, i) maior rapidez no processamento dos dados; ii) Facilidade de armazenamento dos dados para posterior utilização e tratamento; iii) maior controlo sobre as operações efetuadas e, portanto, um acréscimo de rigor na análise; iv) possibilidade de manipulação de dados com grande complexidade; v) maior disponibilidade do analista para outras tarefas, mais criativas, como a reflexão e a interpretação, ocupando menos tempo com tarefas laboriosas e por vezes estéreis.

Após alguma busca, consulta e análise de alguns softwares existentes no mercado para análise de dados, optamos por utilizar o programa Weft QDA na sua versão 1.0. Na nossa escolha pesou fundamentalmente o fato do programa ser livre, simples e fácil de utilizar, além de ter um nível de processamento e análise satisfatório para o objetivo que nos propúnhamos. Dessa forma, pudemos efetuar com relativa facilidade, uma análise de conteúdo de tipo iterativo que integra, num processo cíclico e recorrente, as diferentes componentes da atividade analítica – recolha, redução, apresentação e elaboração/verificação dos dados (Huberman & Miles, 1991).

107

Figura 1 – Desenvolvimento da Análise de Conteúdo. Fonte: Bardin (1997)

O processo de análise dos dados ficou constituído por três fases essenciais: Uma primeira fase de redução de dados, onde procedemos à leitura de todo o material com vista a uma primeira "apreensão sincrética das suas características e avaliação das possibilidades de

análise" (Estrela, 1984: 467 citado por Costa, 2008). Depois, em função dos objetivos previstos

em cada uma das fases e a partir de um primeiro sistema de categorias decorrente da própria estrutura do instrumento utilizado, iniciámos uma etapa de segmentação do texto em unidades, ou seja, a identificação de unidades de sentido, ou unidades de significação, passíveis de serem classificadas e contadas.

A escolha das unidades de sentido ficou subjacente fundamentalmente um critério de ordem semântica e contextual, que melhor se ajustava ao tipo de análise que pretendíamos realizar, tendo sempre em conta que i) As unidades funcionais poderão variar de tamanho, em função do nível de análise; ii) Cada unidade funcional é caracterizada por uma "função cardinal", ou seja o núcleo de sentido e por uma "função indiciadora", através da qual o elemento de sentido que a constitui se torna indiciador de uma atitude geral, atmosfera ou ideologia (Muchielli, 1979 citado por Costa, 2008). Assim, à noção de "conteúdo manifesto", que parece fazer confinar a análise de conteúdo a objetivos sobretudo de natureza descritiva e classificativa, é acrescentada uma noção de carácter mais "inferencial", o que permite que se transite, explicitamente e de

108

características das mensagens que foram antes levantadas, listadas e sistematizadas." (Detry &

Lopo, 1991, p.9 citados por Costa, 2008).

Em termos de segmentação do texto em unidades de sentido, procuramos atribuir à essas unidades uma carga avaliativa caracterizada por possuir determinada direção e intensidade. A escolha das categorias foi, assim, um processo que procurou reunir as unidades de registo em função das suas características comuns.

Dado que a nossa análise se debruça sobre um corpus discursivo, era natural que se assumisse para apoio à mesma (análise) o princípio de que a linguagem representa diretamente aquele que a utiliza. Este postulado permite estabelecer diferenças, a partir do conteúdo do seu discurso, as atitudes, opiniões, posicionamentos e perceções de diferentes elementos permitindo inferir sobre as suas representações. Para tal, tomam-se em consideração as proposições que contêm referencias avaliativas explicitas sobre os objetos em estudo que forem referidos.

A operação de segmentação está diretamente ligada com a codificação, esta vista como um processo pelo qual os dados brutos são transformados sistematicamente e agregados em unidades, as quais permitem uma descrição exata das características pertinentes do conteúdo (Hosti, 1969). Para Marcelo (1992, citado por Costa, 2008), os códigos não só permitem reduzir as declarações dos entrevistados a um sistema menos complexo e ambíguo de anotação que a linguagem corrente, mas representam também, e desde logo, um esforço interpretativo e explicativo, por parte do próprio investigador. No entanto, reconhecer que a própria codificação faz parte integrante do processo de interpretação, implica a utilização de um sistema de controlo e verificação dessa mesma codificação, sob pena de falta de rigor da análise e das conclusões daí decorrentes (Costa 2008).

A necessidade de garantir a validade interna levou-nos a verificar se os códigos se utilizaram de forma consistente, se as áreas de significado que definem se observam em todos os casos, se o significado simbolizado por determinados códigos específicos realmente coincide com o conteúdo daquelas passagens do texto que pretendem reduzir, etc. (Marcelo, 1991). Para tal, seguimos a proposta de Marcelo (1991), para um processo geral de redução de dados com diferentes passos:

1. Elaboração de um primeiro sistema de categorias (sistema prévio); 2. Definição operacional de cada uma das categorias e exemplificação; 3. Seleção de amostra para efetuar estudo de fiabilidade;

109

4. Contraste de codificações e cálculo da fiabilidade; 5. Revisão do sistema de categorias;

6. Codificação da totalidade das entrevistas;

7. Nova revisão do processo de codificação (revisão continuada); 8. Nova codificação, se necessário;

9. Criação de meta-códigos e de novas categorias (categorias emergentes);

A aplicação da proposta acima resultou nas grelhas de análises para as entrevistas aos dois tipos de atores, as quais, por integrarem aspetos comuns, apresentam também muitas semelhanças, variando apenas naqueles itens relativos à natureza do grupo entrevistado. Recordamos também que a entrevista efetuada aos antigos estudantes formados no ISCED foi realizada em grupo.

Já nos referimos à necessidade de se demonstrar a validade e fidelidade da análise e das conclusões, e a fiabilidade do processo. Um dos objetivos da análise de conteúdo é fazer inferências a partir dos dados, que, uma vez organizados segundo os critérios, exigências e modalidades previstos, devem constituir uma linha de partida empírica para a teorização.

A validade ou fidelidade pode ser definida como a adequação entre os objetivos e os fins sem distorção dos fatos (Ghiglione & Matalon, 1992, p. 198 citado por Amado, 2013). É importante que a análise seja válida, isto é, fiel aos conteúdos a serem analisados. É, pois, necessário que se tenha a certeza de que as categorias elaboradas pelo investigador traduzam o verdadeiro sentido dos dados e, portanto, não são ambíguas – fidelidade das categorias.

No que respeita à fiabilidade do processo, procura-se ter a certeza de que as categorias foram construídas de um modo tão operacional que, outro analista, ou o mesmo em outro momento diferente, utilizando essas mesmas definições, farão uma categorização/ análise muito semelhante à primeira- reprodutividade e estabilidade do processo.

Dos vários métodos que a literatura recomenda para a análise da fiabilidade do processo, o mais comum é sem dúvida aquele que implica a colaboração de juízes externos. Solicita-se à uma ou duas pessoas que, partindo de um bom conhecimento do nosso sistema de categorias e respetivas definições (ou seja, dos nossos critérios de análise), proceda à categorização de uma amostra aleatória do corpus documental. Comparam-se então as codificações destes colaboradores com a realizada pelo investigador e procede-se ao um cálculo tendo em conta os

110

acertos (coincidências na codificação) e os desacertos, utilizando-se para isso uma de entre várias fórmulas possíveis, a mais simples das quais talvez seja a seguinte (Daval, 1963; Vala, 1986):

𝐹 = 2. (𝐶1.2)

𝐶1 + 𝐶2𝑥100

Equação 1 –Opção 1 para o cálculo da fiabilidade do processo de categorização (1)

Onde, C1.2 representa o número total de acordos entre os codificadores

C1 representa o número de categorizações efetuadas pelo codificador 1, e C2 representa o número de categorizações efetuadas pelo codificador 2.

Assume-se para efeitos de aceitação da fiabilidade do processo que um resultado a rondar os 80% já se pode considerar como satisfatório.

Outra fórmula igualmente simples é a proposta por Esteves (2006), a qual estabelece que

𝐹 = 𝑇𝑎

𝑇𝑎 + 𝑇𝑏𝑥100

Equação 2 – Opção 2 para o cálculo da fiabilidade do processo de categorização (2)

Onde, Ta representa o número total de casos de acerto;

Ta+Tb representa o número total de acertos e desacertos.

A validade e fiabilidade de um sistema de categorias dependem em grande parte da experiência e dos conhecimentos dos codificadores e de uma correta formulação do sistema de categorias. No nosso estudo, procedemos a análise da fiabilidade do processo. Selecionamos uma amostra aleatória para cada grelha de análise e solicitamos à um colaborador diferente para cada grelha que procedesse à codificação. Procedemos ao cálculo utilizando a segunda fórmula, que nos parece mais adequada para o nosso caso, tendo obtido resultados satisfatórios, como se mostra no quadro a seguir.

Grelha Professores Alunos

Acertos 54 52

Desacertos 6 4

Total 60 56

Fiabilidade 0,90 0,93

111

A título de exemplo das grelhas de análise resultantes e que foram utilizadas no processo de análise de conteúdo, a seguir apresentamos a grelha utilizada para as entrevistas aos professores do ISCED. Esta, resultou de todo o processo de contínua revisão e codificação das entrevistas, processo que envolveu o pesquisador e mais dois codificadores externos, sendo um dos quais o orientador da tese e o outro um docente universitário com experiência em investigação. Este procedimento permitiu redimensionar as categorias de análise, ajustando-as ao objeto de análise, eliminando aquelas que se revelaram desnecessárias ou com alguma carga de subjetividade, e acrescentando outras que se achou necessário por haver dimensões que não se encaixavam nas categorias existentes, tornando o processo mais objetivo e eficaz.