• Nenhum resultado encontrado

Uma vez que o contexto desta investigação é a Web, interessa apresentar alguns exemplos de aplicação de agentes de software para a Internet que surgiram com o intuito de solucionar (ou pelo menos minimizar) alguns dos problemas e limitações que o crescimento da Internet vieram levantar.

Tal como referido anteriormente, a proliferação de conteúdos na Web impulsionou o aparecimento de mecanismos de recuperação de informação que permitem aos utilizadores localizar páginas Web sobre um determinado tema ou assunto. Referimo-nos aos motores de pesquisa e aos directórios.

Normalmente, os directórios agrupam Websites que foram submetidos manualmente. Caso existam colaboradores para verificar a veracidade da informação submetida (nome, título, descrição, palavras-chave, etc), a informação indexada garante autenticidade nos resultados das pesquisas. No entanto, se ninguém submeter uma determinada página Web para esse directório, essa página nunca aparecerá nesse directório.

Um motor de pesquisa usa robots ou spiders, que percorrem automaticamente a Web seguindo as hiperligações, para indexar páginas Web. Por conseguinte, qualquer página pode ser indexada automaticamente desde que exista uma hiperligação para ela.

Um motor de pesquisa deve ser avaliado principalmente com base na qualidade dos seus resultados. Actualmente, o que fornece melhores resultados é o Google. Por isso, não é de estranhar que seja o motor de pesquisa mais conhecido e utilizado no mundo inteiro (Santos, 2006).

À medida que a Web foi crescendo, para além dos directórios e motores de busca generalistas, foram surgindo directórios e motores de busca temáticos ou especializados, directórios e motores de busca académicos ou de avaliação e, inclusive, directórios de motores de busca e motores de busca baseados nos resultados de outros motores de busca (também designados por meta motores de pesquisa). Os serviços mais relevantes de pesquisa e gestão de informação tentam, por um lado, tirar proveito das duas abordagens fornecendo funcionalidades híbridas de indexação e catalogação e, pelo outro, oferecer directórios ou motores de busca específicos para determinados domínios específicos. Por exemplo, serviços para áreas específicas de negócios ou do saber: Froogle - serviço de pesquisa específico para comércio electrónico que facilita a procura de informação sobre a venda de produtos e

serviços on-line (http://froogle.google.com/), Google Scholar - serviço de pesquisa específico para a educação que facilita a procura de literatura ou recursos educativos, tais como: publicações, teses, livros, sumários e relatórios técnicos de todas as áreas de investigação (http://scholar.google.com), Google Book Search - serviço de pesquisa específico para livros que facilita a sua localização através da indicação do assunto ou tema (por exemplo: books about Semantic Web), entre outros. Ou por exemplo, com o intuito de responder mais rapidamente ao utilizador: Answers.com - motor de pesquisa que dá resposta às questões colocadas filtrando a informação como se se tratasse de uma enciclopédia universal (http://www.answers.com) e Ask Jeeves - dá resposta detalhada para todas as formas de questionar informação existente na Web (http://www.ask.com), entre muitos outros. Ou simplesmente com o intuito de dar uma resposta enciclopédica ao termo pesquisado. Para tal, os motores de busca estabeleceram parcerias com enciclopédias ou dicionários on-line (por exemplo, parceria Sapo/Priberam). Surgiram também exemplos de serviços que disponibilizam a informação consoante a área geográfica pretendida: Local - serviço de pesquisa que permite procurar negócios e serviços na Internet numa determinada cidade, rua ou localização indicadas (http://local.google.com) e Tumba! (Temos um motor de busca

alternativo!) - motor de busca que cobre a Web portuguesa e que conta vir a oferecer

funcionalidades relacionadas com a exploração do conhecimento do contexto geográfico dos utilizadores e páginas Web, resultantes da integração de resultados de um projecto de investigação denominado GREASE. Este projecto incide essencialmente na investigação de um mecanismo de inferência baseado no contexto geográfico e de um mecanismo de busca Web semântico que apresente a informação de acordo com as preferências dos utilizadores e de acordo com a sua proximidade geográfica (http://www.tumba.pt). Com vista a guardar as preferências do utilizador, o Google disponibiliza uma outra funcionalidade para guardar, numa área denominada “My Search History”, as pesquisas que realizámos, permitindo posteriormente acesso directo às mesmas através de um pequeno calendário exibido no canto superior direito das páginas (https://www.google.com/searchhistory/login), entre outros serviços específicos disponíveis em http://www.google.com/intl/en_ALL/help/features.html.

Independentemente do âmbito dos mecanismos, do tamanho das suas bases de dados, dos critérios de indexação das páginas e das formas de ordenação dos resultados, a pesquisa de informação na Web não deixou de ser entediante já que a análise semântica dos resultados devolvidos continua a ter que ser efectuada pelo utilizador. Não obstante, os exemplos apresentados mostram a tendência da Web para disponibilizar serviços que libertam o

utilizador de tarefas monótonas, repetitivas e morosas. Por conseguinte, a WS e os seus agentes de software apresentam-se como o caminho a seguir na obtenção de motores de busca semânticos que possibilitem pesquisas em linguagem natural, ou seja, motores de busca que nos entendam (o utilizador pode fazer uma pergunta normalmente em vez de usar palavras- chave e operadores boleanos) e que analisem a Web com vista a devolver apenas a informação que melhor satisfaz os nossos requisitos. Por um lado, o facto de um documento conter uma determinada palavra-chave não significa tacitamente que o mesmo deva ser devolvido como resultado e, pelo outro, não conter essa mesma palavra também não pode ser factor de exclusão, uma vez que poderá conter sinónimos ou conceitos relacionados a essa palavra.

Embora ainda haja muito trabalho a fazer para alcançar esta visão, já existem alguns exemplos de motores de busca semânticos. Destacamos o motor de busca Tropes/Zoom da empresa francesa Acetic (http://www.acetic.fr) e da sua parceira portuguesa Cyberlex (http://www.cyberlex.pt), pelo facto de ser o primeiro que se conhece a operar em português. O componente Tropes é um software de análise de textos, numa perspectiva semântica e pragmática, que garante a fiabilidade das interpretações graças à automatização das análises. O componente Zoom assume-se como um motor de busca semântico que indexa e pesquisa em linguagem natural e efectua análise documental baseada na compreensão dos conteúdos a tratar. Recorrendo à estrutura sintáctica e regras gramaticais das diferentes frases, consegue identificar idiomas estrangeiros (alemão, francês, inglês, italiano ou espanhol), distinguir substantivos de adjectivos, conjugar verbos, estabelecer relações entre várias palavras e respectivos significados, resolver ambiguidades e identificar frases consideradas mais fortes, o que lhe permite alcançar a pertinência dos resultados. Para estender a sua capacidade de análise, o Zoom está ligado ao Tropes e a um agente (spider) de recolha de informação na Internet.

Em suma, os agentes de software assumem-se como um dos factores críticos de sucesso mais visíveis no âmbito da iniciativa da WS.

Genericamente, os agentes ao serviço do utilizador Web podem ser qualquer software que filtra e recupera o conteúdo Web para utilizadores. Isto pode incluir browsers Web,

players de media, plug-ins e outros programas (incluindo os assistentes ou wizards utilizados

entre clientes/servidores) que auxiliam o utilizador na procura, filtragem e recuperação dos conteúdos Web (W3C, 2002).

Face ao exposto, podem ser identificados os seguintes agentes de Internet (Coser, 1999):

• Agentes de pesquisa: visam a pesquisa de informação na Web (por exemplo: softbots,

robots de informação, crawlers e spiders, entre outros agentes Web);

• Agentes de filtragem de informação: tal como o nome indica, filtram as informações na Internet de acordo com as preferências do utilizador. Alguns destes agentes podem ser uma combinação de agentes de Internet com agentes de desktop (filtragem de

cookies, filtragem de e-mail, anti-spyware e bloqueadores de janelas ou popup killers,

entre outras aplicações Web que personalizam informações, tais como notícias, anúncios ou mensagens, de acordo com critérios previamente introduzidos pelo utilizador);

• Agentes de recuperação de informação: permitem adquirir pacotes personalizados de informações de acordo com as preferências do utilizador (por exemplo: agentes de entrega de informação off-line inerentes à tecnologia push ou mesmo algumas aplicações de gestão de downloads);

• Agentes de notificação: avisam o utilizador sobre eventos do seu interesse perscrutados da Internet (por exemplo: informam sobre a adição, actualização ou remoção de conteúdos Web, descida do preço de um determinado produto ou serviço, flutuações na cotação de uma empresa na Bolsa, data de aniversário de um indivíduo, etc);

• Agentes servidores: correspondem a agentes que fornecem serviços específicos bastando para tal aceder a um endereço fixo na Web (pode tratar-se de um agente que facilite a comunicação entre outros agentes com vista a alcançar a solução do problema e/ou de um agente que faça o atendimento aos clientes de uma empresa que visitam um endereço específico à procura de informações sobre produtos ou serviços); • Agentes de serviço: fornecem serviços especializados aos utilizadores que,

geralmente, incluem características de filtragem e/ou notificação (por exemplo: agentes mediadores de procura/oferta de emprego, de compra/venda de produtos, de encontros virtuais entre pessoas ou mesmo gestão de perfis, nomes de utilizador e

• Agentes móveis: têm a capacidade de migrar autonomamente entre diferentes nós da rede para executarem a sua tarefa. Normalmente, um agente móvel é um programa enviado por um cliente a um servidor para realizar uma tarefa e que, posteriormente, pode mover-se para outros servidores, informar o cliente dos seus resultados ou simplesmente regressar à origem.