• Nenhum resultado encontrado

CAPÍTULO 4 METODOLOGIA DE PESQUISA

4.3 Modelo de análise de dados

Analisar e interpretar dados qualitativos significa conduzir a análise textual de conteúdo verbal ou escrito. Transformar as entrevistas em conteúdo acessível para posterior análise é um processo que requer o uso de metodologias específicas para transcrição, codificação e interpretação dos dados, e controle da análise (KVALE, 1996; MILES e HUBERMAN, 1994). Para Lofland e Lofland (1995), pode se conceber a análise de dados somente como um produto que emerge de um processo de ordenação de dados previamente coletados.

O processo de análise dos dados coletados em campo pode ser visto como uma atividade de ordenação e organização dos dados em padrões, categorias e unidades básicas descritivas, seguido de um processo de interpretação que integre a atribuição de significado à análise, explicando os padrões, categorias e unidades básicas descritivas. Na fase de análise, o pesquisador procura estabelecer relacionamentos entre as dimensões descritivas identificadas na fase de codificação dos dados. Esses dois processos (ordenação e interpretação dos dados) são etapas cruciais no projeto de pesquisa: deve-se, a exemplo das etapas de definição dos recortes e do modelo de coleta de dados, adotar um modelo conceitual que oriente a análise dos dados. Neste trabalho, o processo de análise de dados baseou-se no modelo conceitual proposto por Miles e Humberman (1984). Para esses autores, a análise de dados em pesquisas qualitativas consiste em um fluxo de três atividades iterativas e contínuas (Figura 25) que ocorrem durante a fase de coleta de dados em campo e que podem se estender após essa fase.

Utilizou-se esse modelo conceitual na codificação, interpretação e análise dos dados coletados durante as entrevistas com os diferentes grupos sociais relevantes do portal de serviços públicos eletrônicos da PCSP:

• Redução dos dados: é o processo contínuo de seleção, simplificação, abstração e transformação dos dados originais provenientes das observações

realizadas em campo. Para Miles e Huberman (1994) a redução dos dados já ocorre antes mesmo da fase da coleta e pode se estender para depois dela; • Apresentação dos dados: é o processo de organização dos dados coletados, de

tal forma que o pesquisador consiga tomar decisões e tirar conclusões a partir desses dados (textos narrativos, matrizes, gráficos, esquemas etc.);

• Conclusão e verificação: é o processo de identificação de padrões, possíveis explicações, configurações e fluxos de causa e efeito, seguido de verificação, retornando às anotações de campo e à literatura, ou ainda replicando o achado em outro conjunto de dados.

Flu x o de A ti v id a d e s de A n á li s e Conc orr e n tes Depois Análise dos Dados Período durante a coleta de dados no campo

Redução dos dados (Data reduction)

Processo de seleção, simplificação e transformação dos dados que aparecem nas notas de campo e transcrições.

Conclusão e verificação (Conclusion drawing and verification) Processo de decisão sobre o significado dos dados coletados (regularidades,

padrões, explicações, proposições, etc.), seguido de verificação posterior. Apresentação dos dados (Data display)

Organização e montagem das informações de forma a facilitar o entendimento do que ocorre, tirar conclusões e agir.

Figura 25 – Modelo conceitual para análise de dados.

Fonte: Adaptado de Miles e Huberman (1984).

A transcrição dos dados registrados no formato de áudio digital (MP3) para o formato de texto é uma fase prévia às fases de codificação, interpretação e análise do conhecimento construído nas interações ocorridas durante as entrevistas. Miles e Huberman (1994) discutem extensivamente a aplicação e funcionalidade de vários softwares voltados para a análise qualitativa de dados (armazenamento e tratamento de textos, codificação e categorização de textos, criação de estruturas conceituais).

Nesta pesquisa, utilizamos o software QSR NVIVO30 para facilitar a análise das transcrições das entrevistas. Esse software foi concebido para a análise qualitativa de dados, sob a forma de texto, imagens ou registro sonoro, segundo a técnica de codificação prevista na metodologia utilizada na pesquisa. Destina-se, fundamentalmente, ao armazenamento, gerenciamento e recuperação textual de segmentos de textos codificados. Embora o software de análise seja extremamente relevante para aumentar a qualidade do resultado da análise, a responsabilidade da interpretação e codificação, no entanto, é sempre do pesquisador.

4.3.1 Codificação dos dados coletados

Para Miles e Huberman (1994, p.56), “codificar é analisar”. Tal como é característico dos estudos qualitativos, a fase de codificação dos dados foi mutuamente influenciada pela fase de análise dos dados. Apesar de o processo de análise passar primeiro por um processo de codificação dos dados coletados, aquele afeta de forma recursiva o próprio processo de codificação. Miles e Huberman (1994) afirmam que a codificação é o processo pelo qual o pesquisador cria e designa códigos associados a trechos de textos, de forma a permitir posterior associação de vários segmentos de texto que levam um mesmo código, e organização dos modelos conceituais de relacionamentos (ligações e hierarquias) entre os códigos.

A codificação dos dados coletados implica a revisão de elementos, como notas de campo e transcrições ou síntese de entrevistas, com o objetivo de dissecá-los em partes menores, associando-as a significados e mantendo intactas as relações entre elas. Códigos são rótulos utilizados para designar unidades de significado, atribuídos às informações descritivas compiladas durante a coleta de dados. A codificação dos dados ocorre a partir dos textos transcritos, e tem como objetivo organizar os dados a partir da redução dos significados num formato mais simples, possibilitando sistematizar o conteúdo a partir dos significados implícitos do que foi dito pelos entrevistados. Para Ryan and Bernard (2000, p.780), “a codificação dos dados é o coração e a alma da análise de dados empíricos”. Ela

força o pesquisador a fazer julgamentos de significados para trechos de textos transcritos e associá-los a um código.

Dos três tipos de codificação sugeridos por Miles e Huberman (1994, p.57): descritiva, interpretativa e dedutiva, adotou-se a codificação interpretativa. No contexto dessa investigação, a codificação dos dados empíricos foi feita por meio da atribuição de rótulos associados a blocos de textos, com a finalidade de criar relações entre eles para posterior análise. Dessa forma, utilizou-se a interpretação de significados para criar códigos atribuídos a frases ou parágrafos em um dado contexto.

Diferentes pesquisadores possuem diferentes pressupostos sobre a realidade, portanto a codificação depende de suas interpretações a respeito do discurso dos atores. A codificação pode se basear na objetividade absoluta no processo de significação do conteúdo. Nesse caso, exigir-se-á uma dose de objetividade do pesquisador que conduz a codificação dos dados, já que a declaração de um entrevistado deve ter um único significado, correto e objetivo. No outro extremo, encontrou-se a subjetividade relativa, em que tudo pode significar qualquer coisa.

Portanto, a codificação é produto do raciocínio, da versatilidade e da subjetividade do investigador. À medida que se familiariza com os dados, o investigador pode revisar os códigos, combinando-os ou dividindo-os.

Detalhar-se-ão a identificação e a classificação de unidades de significação por meio da atribuição de códigos (codificação) às diferentes passagens relevantes de cada entrevista realizada no Capítulo 6.

Assim, discutiram-se nesse capítulo os passos metodológicos utilizados na condução desta pesquisa, apresentamos o estudo de caso como método de pesquisa, definimos o modelo de coleta e análise de dados. No Capítulo 5, apresentar-se-á o caso de estudo que define o escopo desta pesquisa. O caso escolhido foi o portal de serviços públicos eletrônicos da Prefeitura da Cidade de São Paulo.