• Nenhum resultado encontrado

1.1 O advento da matemática nas ciências sociais aplicadas

1.1.2 Software na análise qualitativa de dados

O emprego de computadores na pesquisa qualitativa pode ser compreendido pela variedade de diferentes técnicas que requerem tanto procedimentos simples, como complexos. De acordo com BAUER e GASKELL (2007, p. 396) “a escolha correta de uma dessas

técnicas somente pode ser feita tendo em vista o passado metodológico do pesquisador/a seus problemas de pesquisa e os objetivos cerceados”. Na pesquisa qualitativa, o emprego de pacotes de software funciona como instrumento para mecanizar tarefas de organização e arquivamento de textos, que facilitam o tratamento de dados:

Antes da chegada dos computadores, as técnicas de 'cortar e colar' eram os métodos mais comumente empregados na pesquisa qualitativa para organizar o material: pesquisadores eram obrigados a “cortar” anotações de campo, transcrições e outros materiais, e “colar” os dados relacionados a cada categoria de codificação em arquivos separados, ou envelopes. […] Para desempenhar tarefas no computador, deve ser criado um banco de dados textuais não formatado. Infelizmente, padrões de software com processadores de palavras ou sistemas de bancos de dados-padrão são, em geral, de uso apenas limitado, propiciando a construção de bancos de dados textuais não formatados, pois eles não dão conta das técnicas de tratamento de dados necessários para estruturá-los […] (BAUER; GASKELL, 2007, p. 395).

Para BARDIN (2009) A construção de índices ou dicionários flexíveis para vários tipos de serviços de análise de conteúdo proporcionou aos investigadores desenvolver grades de análise que poderiam ser aplicadas a diferentes tipos de corpus. A autora refere-se ao desenvolvimento de ontologias para software que definiram objetos, classes (conjuntos, coleções ou tipos de objetos), atributos (características ou parâmetros para os objetos de análise) e relações possíveis entre esses objetos visando abordagens qualitativas de dados.

O desenvolvimento de ontologias popularizou-se enquanto linha de investigação no início da década de 1990 em comunidades de pesquisa sobre Inteligência Artificial, Engenharia do Conhecimento e Processamento de Linguagem Natural. Recentemente a noção de ontologia alcançou domínios como integração e recuperação de informações na Internet e Gestão do Conhecimento. De acordo com STUDER; BENJAMINS; FENSEL (1998) a razão para a “popularidade” atual das ontologias é devido ao denominador comum de conhecimentos que estabelece sobre certos domínios do saber e sua compatibilidade de comunicação através de pesssoas e computadores.

Originalmente, o termo "ontologia" vem da filosofia - da tentativa de Aristóteles em classificar as coisas no mundo - era empregado para descrever a existência de seres no mundo. A Inteligência Artificial (AI) lida com o raciocínio sobre modelos de mundo. Portanto, não é de se estranhar que pesquisadores de AI tenham adotado o termo "ontologia" para descrever o que pode ser (computacionalmente) representado como o mundo em um programa. [...] Uma ontologia é uma especificação formal, explícita de uma conceitualização compartilhada. A 'conceituação' refere-se a um modelo abstrato de algum fenômeno no mundo que pode ser identificado por meio de conceitos relevantes que se aplicam ao fenômeno. "Explícita" significa que o tipo de conceito utilizado e restrições sobre seu uso são explicitamente definidas. Por exemplo, nos domínios da medicina, conceitos podem ser doenças e sintomas, as relações entre essas instâncias é causal e uma restrição é que a doença não pode causar a si mesma. "Formal" refere-se ao fato de que a ontologia deve ser legível por máquina [...] "Compartilhada" reflete a noção de que

uma ontologia captura o concenso sobre certo tipo de conhecimento, isto é, não é a visão pessoal de um indivíduo, mas conhecimentos reconhecidos e aceitos por determinado grupo de pessoas. (STUDER; BENJAMINS; FENSEL, 1998, p 184.)

O desenvolvimento e compartilhamento de índices ou tipos de “ontologias” em software de processamento de textos ocorreu na década de 1960, segundo BARDIN (2009), em que se desenvolveram parâmetros iniciais para análise de dados quanlitativa que permitiram o compartilhamento desses índices para facilitar a pesquisa e análise de dados:

É assim que o primeiro programa de computador para a análise de conteúdo, o

General Inquirer elaborou ao mesmo tempo: índices correspondentes a um projeto

específico (hipóteses precisas) e dados particulares; índices gerais (número elevado de categorias) utilizáveis em diversos estudos exploratórios e em dados textuais variados”. (BARDIN, 2009, p. 160).

Nos anos 1960, o General Inquirer apresentava 1.966 dezessete índices. A construção e aprimoramento de ontologias acompanhou a aplicação de software de análise qualitativa por pesquisadores das ciências sociais. A autora menciona a ligação entre as formulações teóricas da pesquisa e mecanismos automáticos de análise ressaltando aspectos como rigor e definição de processos como favoráveis ao uso de softwre nas pesquisas:

A elaboração das categorias vê aumentar o seu rigor: preceitos rigorosos de rotulação [aplicação] das palavras, definição unívoca das categorias e definição precisa das fronteiras entre conceitos e a lógica interna do processo de investigação”. (BARDIN, 2009, p. 161).

Basicamente, pacotes de software desenvolvidos especialmente para pesquia qualitativa são técnicas que definem indicadores a partir de palavras-índice juntamente com endereços das passagens dos textos coletados, bem como a construção de referências eletrônicas cruzadas, com a ajuda de hiperlinks. BAUER; GASKELL (2007, p. 396) definem algumas versões de programas como: THE ETHNOGRAPH, HUPERRESEARCH,

HYPERSOFT, MAX, NUD*DIST ou ATLASti. Para os autores esses programas apresentam

facilidades para armazenar comentários dos pequisadores e definir ligações entre palavras- índice, definição de variáveis e filtros que facilitam a definição de atributos no banco de dados.

De semelhante modo BABBIE (1999, p. 284) cita uma série de programas de computador para análise quantitativa e qualitativa de dados mencionando lógicas semelhantes de trabalho estabelecidas entre eles para a pesquisa em ciência social: ABtab, AIDA, A.STAT,

BMDP, CRISP, DAISY, DATA-X, Dynacomp, INTERSTAT, MASS, MicroCase, Microquest, Microstat, MicroSURVEY, Minitab, StatPro, Stats PLUS, Statview, Survey Mate, SYSTAT,

STAT80, STATA, SURUTAB, TECPACS.

Entretanto, características positivas apresentadas por autores sobre o uso de pacotes de programas em pesquisa social é criticada em KERLINGER (1980, p. 294) devido a aspectos de dependência de pesquisadores diante das facilidades apresentadas por esse tipo de software. O autor descreve tendências “insidiosas” e “prejudiciais”, “capazes de gerar resultados terríveis para a pesquisa” sugerindo que esse hábito pode causar a perda de compreensão real sobre dados e sobre a metodologia empregada no processo de investigação:

Um “pacote” é um programa generalizado que pode manejar todos os problemas de certo tipo. É escrito para ser “geral” para uma classe de problemas analíticos; o meu problema, o seu problema e o problema dos outros podem ser resolvidos com ele. Por exemplo, há “pacotes” para fazer análise fatorial, análise de regressão múltipla e alguns deles são muito boms, sem dúvida. Outros têm aspectos questionáveis. Muitos dos usuários de tais programas sabem pouco ou nada a respeito do computador e do que ele pode ou não pode fazer; e pior, eles sabem pouco a respeito dos métodos empacotados nos programas. Dependem totalmente dos programas do computador. Os terríveis resultados se mostram repetidamente. Ocorreu a pouca gente mesmo a pesquisadores, que tamanha dependência é perigosa e até perniciosa. Ela não leva apenas a resultados incorretos e confusos; ela enfraquece a capacidade de muitas pessoas potencialmente talentosas. Baixa ainda a qualidade geral da pesquisa nas ciências comportamentais. (KERLINGER, 1980, p. 294-295).

A preocupação expressa em KERLINGER (1980) pode ser corroborada pela história econômica e social da tecnologia apresentada em SCHOT e BRUHEZE (2003) que observam a existência dos chamados “intelectuais”, “cérebros”, inventores em referência a uma camada da sociedade cujo ofício foi "pensar" a tecnologia, entre eles: engenheiros, planejadores, produtores e gestores, designers. Durante a maior parte do século XX esse "pequeno mundo" representado por grandes empresas, burocracias e organizações concentrou o conhecimento sobre o desenvolvimento de software enquanto os demais grupos sociais eram considerados “[...] espectadores passivos em tal história; adaptavam-se, embora, por vezes contra a sua vontade e depois de alguma resistência”. SCHOT e BRUHEZE (2003, p. 259). Incluem-se nesse segundo universo a maioria dos pesquisadores das áreas de humanidades que receberam métodos e técnicas já desenvolvidos e empacotados por outras áreas do conhecimento, assumindo simplesmente o papel de consumidores desses produtos. Contudo, atuais estudos de consumo e produção de tecnologia levam em consideração orientações para o consumidor, enfatizando usos, hábitos e escolhas para aprimoramento tecnológico. O chamado “design participativo” no desenvolvimento de software foi mencionado como necessário por SCHÄFER (2011) uma vez que influencia e é influenciado por lógicas de pensamento e

apropriações:

[...] um outro aspecto muitas vezes marginalizado é o papel da tecnologia em si. As qualidades específicas da tecnologia estimulam ou reprimem certos usos e, assim, influenciam formas como essas tecnologias são usadas e implementadas pelos consumidores na sociedade. Esses recursos afetam tanto o design quanto apropriações do usuário. A tecnologia não pode ser tratada como uma caixa preta neutra. Ao examinar a tecnologia, torna-se evidente que a cultura de engenharia, bem como uma atitude sócio-política específica são inerentes à sua concepção. (SCHÄFER, 2011, p. 14).

Inovações advindas da observação de práticas de usuários e pesquisadores favoreceram avanços em software de análise qualitativa de dados. “A disponibilidade de processamento da linguagem natural e novos recursos computacionais estão transformando análise da linguagem e da ciência social moderna” de acordo com TAUSCZIK; PENNEBAKER, (2010, p 38). Eles analisaram as funcionalidades do LIWC, um programa de análise de texto para dados extraídos da Internet e concluíram que:

Métodos de análise de texto também devem aumentar em termos de flexibilidade, permitindo ao pesquisador analisar categorias linguísticas específicas de acordo com os objetivos de investigação. Novas técnicas para se extrair automaticamente e conceitualmente palavras relacionadas serão expandidas permitindo incorporar padrões relacionados de estilo de linguagem com palavras de conteúdo relacionados. (TAUSCZIK; PENNEBAKER, 2010, p 38).

Para esses pesquisadores, a nova era de programas para análise quanlitativa de dados permitirá a percepção de intenções e “estado da mente” das pessoas. O emprego de métodos e técnicas automatizadas é obervado, atualmente, como exercendo papel de mediador: “Tornam-se mediadores, ou seja, atores dotados da capacidade de traduzir aquilo que eles transportam, de redefini-lo, desdobrá-lo, e também de traí-lo”. LATOUR (1994, p. 80). Isso pode ser claramente observado diante do emprego de software na pesquisa, pois há um processo a ser seguido, ordenações que o pesquisador deve obedecer para se comunicar com o sistema e dele obter resultados que procura. Ou seja, “entrada” e “saída” de dados cujo protocolo de ações e interações foram previamente definidos por programadores e designers de software. Nesse caso, o método ou a técnica metamorfoseada em software é mediador entre concepções teóricas, questões e objetivos de pesquisa definidos pelo conjunto humano de cientistas enquanto formatos e resultados são apresentados pelo parceiro não-humano. Diante do emprego de métodos e técnicas de pesquisa automatizadas a configuração desse processo científico híbrido entre humanos e sistemas que se constitui na prática científica atual.

Imperfeição, limitações sempre estarão presentes em ambas instâncias tanto humana quanto maquínica. Quanto a essa última, testes e aplicações de diversos programas para

análise quantitativa e qualitativa de dados, bem como a combinatória de software têm auxiliado pesquisadores a superar algumas demandas. De mais, pode-se denotar certa comicidade ao observarmos suspeitas descritas em BABBIE (1999) e KERLINGER (1980) sobre o “lado perverso” e “poderoso” de sistemas e uso do computador por cientistas. Entretanto, atualmente, em referências tácitas sobre o Método de Monitoramento de Redes Sociais paira certo receio sobre as chamadas técnicas ou “ferramentas” de monitoramento, de modo muito semelhante, no sentido de ressaltar características e potência para exercício de poder, vigilância, rastreamento, espionagem ou apreensão. É comum a frase “O Google está lendo os meus e-mails!” manifestar-se acompanhada por teorias da conspiração e digressões de cunho moral.

Apenas como aparte momentâneo, continuo achando encantadora a auto-estima de certas pessoas que fazem parte do círculo ordinário de nossas vidas em considerar que o

Google dispenderá, algum dia, funcionário ou equipe especializada para ler o que elas andam

escrevendo nos e-mails. Há no processo comunicativo a respeito desse tópico, intervenções ou trocas interpretativas de conteúdos, mas não entre humanos a não ser que haja ordem explícita proveniente de instâncias HUMANAS de âmbito superior para tal fim (algo que poderia ocorrer, por exemplo, através de interferência jurídica ou a pedido do próprio usuário). O que ocorre são identificações de léxico – termos ou palavras-chaves - e aplicação de algoritmos que funcionam como filtros, realizando a seleção, combinação, agrupamento ou equivalência entre metadados gerados pelo usuário e termos disponíveis em bancos de dados de anunciantes. Algo do tipo <<HELLO WORLD>> = #JavaScripTagging em que você é apenas + um objeto capaz de gerar + objetos em + um dos containers de objetos.

É óbvio que técnicas de monitoramento podem achar uma agulha no palheiro. Mas, se fosse esse o caso, então a questão mesmo seria, “Afinal, que termos você anda 'postando' que pode levantar suspeitas?” E veja que é possível quanto à posição de suspeição inverter-se partindo agora diretamente do sistema (não-humano) para com atividades de humanos. E é esse o “fetiche” que integra e reforça a paleta receios sobre a tecnologia quando se trata do método de monitoramento de redes sociais e suas técnicas. Para consolo, a dica é lembrar que atividades de usuários em sites de redes sociais converteram-se em uma das principais

commodities na contemporaneidade. Pois, interessa “ao negócio” que você continue o mais

confortável possível “no palheiro”, enquanto método e técnicas agrupam milhares e milhares de dados por clusters forjados e imantados nas relações, preferências e gostos, que as próprias

“agulhas” freneticamente encarregam-se de despertar umas nas outras.

Como já foi dito, o determinismo tecnológico não consegue contribuir para o avanço da conversa, pois métodos são espelho de nossa cultura e buscam dar respostas a questões que aflingem nosso estado de saber vigente. Já mencionavam TORVALDS E DIAMOND (2001, p. 255) “a tecnologia é o que fazemos dela, e nem os negócios nem a tecnologia mudarão a natureza básica das necessidades e dos anseios humanos”.