• Nenhum resultado encontrado

A Internet foi criada nos Estados Unidos, inicialmente como um sistema de comunicação de uso estratégico do governo, para permitir modos de comunicação alternativos às conhecidas até o final dos anos 1960. Num segundo momento, passou a servir ao ensino e à pesquisa naquele país.

Porém, em 1994, os usuários comerciais da Internet já eram o dobro dos acadêmicos, causando insatisfação nesta comunidade. Com a perspectiva de maior utilização da Internet pela comunidade acadêmica, em 1996, duas iniciativas marcam uma nova etapa no seu desenvolvimento: a Internet 2 e a Next Generation Internet (NGI). A NGI como um consórcio de várias universidades e empresas, visava aumentar a capacidade “inteligente” do sistema e a fomentar a pesquisa em Internet, em novas tecnologias da informação e da comunicação.

pesquisa, chamado “Modelo da espiral tecnológica”, de Ivan de Moura Campos, citado por Vogt (2002). Esse modelo, contido na Figura 13, demonstra a circularidade das relações entre seus elementos, pois o movimento de evolução da Internet nasce em um programa de P&D, expande-se por meio de parcerias e priorizam para o uso comercial, e é retomado num ponto tecnologicamente avançado, para iniciar um novo ciclo de P&D – e nesse ponto nasce a Internet 2.

Figura 13: Modelo da espiral tecnológica da Internet

Esse modelo, segundo Vogt (2002), é aplicável a pesquisas em outras áreas do conhecimento, que levam ao desenvolvimento do processo produtivo, seja TI, biotecnologia, química e outros.

5 PROCEDIMENTOS METODOLÓGICOS

A partir da revisão da literatura, da descrição do cenário de desenvolvimento da pesquisa e das teorias e dos modelos estudados foram estabelecidos os procedimentos metodológicos da tese.

Partindo da afirmação de Popper (1994, p. 57) de que “o característico da ciência é a postura crítica, e não o sentido lógico”, optou-se nesse estudo por uma pesquisa qualitativa, de caráter exploratório, não utilizando nenhum dos extremos seja o método indutivo ou dedutivo, mas aproximando-se da abdução (método do óbvio, onde primeiro se apresenta um fato e, depois, o fato é investigado para buscar as suas explicações) e das conjecturas e refutações (onde o processo é constituído pela seqüência de estados precedentes e o trabalho de criticar o estado alcançado se constitui na atividade de solução de problemas por conjecturas imaginativas e de crítica), explicitadas por Popper, aplicadas a cada circunstância.

Para complementar a pesquisa qualitativa, este estudo utilizou também a pesquisa quantitativa para estabelecer o perfil da amostra, bem como para medir aspectos políticos, tecnológicos e informacionais dos segmentos universidade, governo e empresa do setor de TI, do Distrito Federal. Para analisar as características de distribuição das variáveis, o software escolhido foi o Statistical Package for the

Social Sciences (SPSS), tanto para a determinação da freqüência absoluta e

relativa, como para os cruzamentos entre variáveis. A pesquisa quantitativa constou de cinco etapas:

1. coleta de dados, utilizando como instrumento o Questionário (Anexo 1), aplicados pessoalmente em 43 entrevistados dos três segmentos;

2. entrada dos dados, por meio do SPSS, construindo a máscara de referência de todos os dados quantitativos;

3. processamento dos dados, por meio do SPSS e do Microsoft Excel, tendo como resultado tabelas e figuras;

4. seleção das tabelas e figuras a serem utilizadas no estudo; 5. análise dos dados, a partir das tabelas e figuras selecionadas.

Por outro lado, têm-se como referência a TGS de Bertalanffy e o Modo 2 de Gibbons (GIBBONS et al., 1994) centrados na transdisciplinariedade, relacionando os ambientes emergentes de produção de conhecimento, agindo integradamente, observando o contexto, os atributos e as características do ambiente de estudo. A pesquisa qualitativa é uma estratégia sistemática e empírica para responder questões, num determinado contexto social. Com base na interação que se estabelece, é um modo de descrever e entender as regularidades observadas, onde as pessoas relatam suas experiências e como elas vêem o assunto. Enfim, na pesquisa qualitativa o foco está na percepção e na experiência dos participantes, no que expressam, acreditam, sentem e como são tratadas as realizações significativas, a partir de uma visão relativista do mundo: verdades que são modelos de causa e efeito dessa realidade, para uma compreensão objetiva do contexto e do significado.

A técnica utilizada para a coleta dos dados da pesquisa foi a entrevista, partindo de variáveis determinadas após a revisão de literatura e a análise do ambiente de pesquisa, buscando que o mesmo instrumento de coleta de dados pudesse ser adaptado e utilizado pelos três segmentos, e que fosse capaz de trazer para questões, atuais ou antigas, novas respostas.

Para analisar as respostas obtidas nas entrevistas, a técnica utilizada foi a análise de conteúdo a partir de um conjunto de constructos estabelecidos. Várias ferramentas existentes podem ser aplicadas para a realização dessa análise. Buscou-se um software utilizado no tratamento de informação, com valor agregado, nos sistemas de inteligência (business inteligence). Dentre os diversos Data Mining

Softwares pesquisados, a opção recaiu sobre o Statistica 7.0, pelas possibilidades

de seus aplicativos, pois é um conjunto de ferramentas para a mineração de dados (data mining). Data mining se refere ao uso de uma variedade de técnicas utilizadas para identificar informações valiosas, únicas, exclusivas e extraí-las de maneira que dêem suporte à tomada de decisão, à previsão e à avaliação.

sucesso vem da combinação dos dados com uma análise avançada, onde são identificadas as relações relevantes e as características dos dados. O processo de

data mining gera modelos, com dados históricos, muito usados na previsão. As

técnicas usadas para construir estes modelos relacionam-se com a machine learning e a modelagem.

O programa Statistica utiliza essas técnicas, produzindo, entre outras:

a) a análise de clusters, que possibilita a identificação do grupo que possui características comuns, onde os subconjuntos de dados são organizados para constituir e demonstrar a configuração de cada cluster;

b) as relações associativas, por meio do Gráfico de Regras, são capazes de associar itens específicos a outros itens, estabelecendo pontos de interseção entre os conceitos e os atores, indicando a intensidade das associações, por meio do Tamanho do Nó que significa o apoio a cada item, e da Tonalidade de Cor que significa o grau de confiança da associação;

c) o Gráfico de Conexões (Web Graph), por meio de uma teia, estabelece as relações e conexões entre os diversos conceitos e atores existentes, onde são definidos os pontos de maior relevância na explicação do contexto, de acordo com o Tamanho do Nó (relativo ao apoio de cada item), a Largura da Linha (relativa ao apoio de dois itens) e a Intensidade das cores das linhas (relativa ao grau de sustentação de dois itens).

A análise dos dados contou com o apoio do especialista em data mining Rondon de Andrade Porto, utilizando um parser, criado por esse especialista, para que os dados pudessem ser analisados a partir de marcadores, buscando a formação de clusters, associações e conexões. A social network ocorre quando há identificação das pessoas entrevistadas, com condição incompatível com o tipo de pesquisa realizada, quando garantido o anonimato das respostas. Para análise das associações e conexões foram usados o Gráfico de Regras e o Web Graph, demonstrando as relações entre os segmentos.

A pesquisa qualitativa constou de três etapas:

43 entrevistados dos três segmentos. Estas entrevistas foram gravadas em fita cassete, em seguida foram degravadas e depuradas para a eliminação de erros de digitação, plurais, sintaxe, e outros;

2. Entrada de dados, por meio dos disquetes depurados; 3. Processamento dos dados, constando de oito passos:

a) Extração dos termos: para essa tarefa foi utilizado um ”parser” (extrator) léxico. Este parser foi desenvolvido pelo Dr. Eckhard Bick, da Universidade de Syddansk (Dinamarca), especialista em lingüista computacional, no âmbito da língua portuguesa. Este parser realizou a extração dos termos.

b) Entrada dos termos: as respostas dos entrevistados às questões foram analisadas e foram marcados os termos de interesse. Esses termos foram gravados, separadamente, em arquivos, de acordo com a questão da entrevista. O parser fez a análise morfológica e sintática do texto. Os termos foram marcados, levando-se em consideração os stopwords (pronomes, advérbios, preposições), sem incluí-los na determinação dos itens em estudo, na classificação gramatical do texto. Dessa maneira, foram extraídos os conceitos, atores e ações, independentemente dos

stopwords, que não têm importância para o texto, não tratando as

palavras simples como termos, mas levando em consideração os

stopwords, porque dependem deles a análise sintática;

c) Extração dos termos 2: cada arquivo foi analisado por um segundo

parser, desenvolvido pelo especialista em data mining brasileiro Rondon

de Andrade Porto para a extração dos atores, das ações e dos conceitos;

d) Entrada dos termos 2: esse processamento gerou três arquivos, contendo os dados relativos: aos conceitos, às ações e aos atores, com os seguintes itens de informação: número da questão, número do entrevistado e o conceito citado, ou a ação citada, ou o ator citado. e) Padronização dos termos: os dados obtidos foram importados para o

SPSS versão 14, visando com esse processamento fazer os ajustes na terminologia a na sintaxe, para a padronização dos termos relativos a esses conceitos e atores, bem como para eliminar as diversas formas do

mesmo conceito ser representado, como: plurais, siglas, maiúsculas ou minúsculas.

f) Seleção dos atores e conceitos: por meio da maior incidência (freqüência) e maior relevância semântica (palavras com maior significado dentro do contexto) foram selecionados os atores e os conceitos.

g) Análise dos resultados: a partir dessa seleção foi realizada a análise dos resultados obtidos para se verificar a relevância contextual dos resultados, ficando demonstrada a relevância dos resultados relativos aos atores, deixando as ações e os conceitos em um plano secundário. h) Definição das matrizes e processamento: com as matrizes dos termos

definidas seguiu-se o processamento dos dados relativos às Interseções (associações) e as Relações (conexões), utilizando-se o programa

Statistica, acompanhado das freqüências dos itens computados, com a

indicação dos subitens em cada item, freqüência e coeficientes de Mínimo de Apoio e de Mínimo de Confiança (Anexo 3).