• Nenhum resultado encontrado

A web centralizada: a Clearnet

No documento Download/Open (páginas 61-66)

CAPÍTULO II – A SOCIEDADE CONECTADA

2.1 A web centralizada: a Clearnet

A web passou por algumas transformações desde a sua criação. A primeira, chamada por Web 1.0, foi a descrita na introdução deste capítulo, com sua formação feita pela união de entusiastas, acadêmicos e hackers que criaram as páginas iniciais da rede e configuraram como ela funcionaria dali para frente. A segunda já introduz a mobilidade, com a introdução dos smartphones e conexão sem fio. Esta Web 2.0 foi a responsável pela popularidade da rede, o que propiciou sua rápida expansão. Steve Case (2017, p.45) denomina esta fase de Segunda Onda da internet, e detalha:

Durante a segunda onda, o aumento no uso da internet, combinado com a rápida adoção de smartphones, levou a uma explosão das mídias sociais e à criação de uma fértil economia de aplicativos. Algumas das empresas mais bem-sucedidas, como o Snapchat e o Twitter, começaram com pequenas equipes de engenheiros e se tornaram sensação da noite para o dia, sem exigir nem as parcerias nem a perseverança que definiram a era anterior. A web descrita por Case também já sofreu outra mutação. A Web 3.0, ou a Terceira Onda, adota o uso das aplicações em todas as situações da vida cotidiana. Case (2017, p.45) indica que a web engloba tudo, o autor declara:

Estamos em uma nova fase de evolução tecnológica, um tempo em que a rede será completamente integrada a tudo o que se refere a nossa vida – como aprendemos, como nos curamos, como administramos nossas finanças, como nos locomovemos, como trabalhamos, e até como comemos. [...] Esta é a terceira onda, e não precisamos esperar por ela: já está aqui (CASE, 2017, p.45-46).

O cenário descrito por Case não seria possível sem que as gigantes da tecnologia não tivessem transformado a web em um item necessário para a vida diária. Entender como a web de hoje funciona, é compreender como ela se transforma em uma rede descentralizada, como em sua primeira era, para uma centralizada, com as grandes companhias da informação em seu centro. Nesta direção, o Google tem papel central nesta equação.

A principal ferramenta de busca da web tem origem na Universidade de Stanford, nos Estados Unidos, quando Larry Page e Sergey Brin se matriculam no curso de pós-graduação da instituição. Walter Isaacson (2014, p.269-271), diz que ambos buscavam um tema para suas dissertações de mestrado, entre outros temas que levaram em consideração, resolveram

pesquisar em conjunto sobre a importância relativa que as páginas da web teriam. A ideia veio de Page, uma vez que:

Seu método decorreu do fato de ter crescido em um ambiente acadêmico. Um critério que determina o valor de um trabalho acadêmico é saber quantos outros pesquisadores o citam em suas notas e bibliografias. Pela mesma teoria, uma forma de determinar o valor de uma página web seria verificar quantas outras páginas estabeleciam links para ela (ISAACSON, 2014, p.470).

Isaacson (2014, p.471) descreve que Page e Brin denominaram seu projeto de BackRub. A intenção dos jovens pesquisadores era de compilar links da web para servirem de base para um sistema de anotação e de análise de quanto os sites eram citados. A tarefa era complicada, e começaram a criar ferramentas cada vez mais sofisticadas para avaliar o valor das páginas com a premissa do número e da qualidade dos links que apontavam para cada site. “Foi quando ficou claro para os BackRub Boys que seu índice de páginas classificadas por importância poderia ser a base para um mecanismo de pesquisa de alta qualidade. Assim nasceu o Google”, descreve Isaacson (2014, p.471). Page e Brin criaram um algoritmo capaz de identificar e quantificar o valor de uma página na web, como uma espécie de ranking de páginas.

Por exemplo, um link que viesse do New York Times deveria contar mais do que um link do quarto de Justin Hall em Swarthmore. Isso criava um processo recursivo com múltiplas formas de feedback: cada página era classificada pela quantidade e pela qualidade dos links para ela, e a qualidade desses links era determinada pela quantidade e pela qualidade dos links para outras páginas que lhes tinham dado origem, e assim por diante (ISAACSON, 2014, p.472).

Page e Brin aprimoraram sua ferramenta de busca com dois objetivos para a sua funcionalidade. A primeira foi de obterem uma grande capacidade de banda de internet e alta capacidade de processamento, que permitem acesso rápido dos usuários a pesquisa e indexa cem mil páginas por segundo ao serviço. A segunda foi estudar em profundidade o comportamento dos usuários para ajustar o algoritmo do site. Como Isaacson (2014, p.474) explica:

Se os usuários clicassem no primeiro resultado e depois não voltassem à lista de resultado significava que tinha conseguido o que queriam. Mas se fizessem uma pesquisa e voltassem de imediato para refazer a consulta, significava que estavam insatisfeitos, e os engenheiros deveriam descobrir, examinando a consulta refinada, o que eles estavam procurando em primeiro lugar. Sempre que os usuários rolavam para a segunda ou terceira página dos resultados da pesquisa, era sinal de que estavam descontentes com a ordem dos resultados que tinham recebido.

Isaacson (2014, p.478) completa ao dizer que o algoritmo do Google “se baseava em bilhões de julgamentos humanos feitos por pessoas [...]. Era uma forma automatizada de aproveitar a sabedoria dos seres humanos – em outras palavras, uma forma superior de simbiose ser humano-computador”. Page e Brin chamaram por PageRank, e o lançaram em 1997. A partir daí, o Google se tornou uma das maiores empreses do mundo. Porém, a gigante da informação não criou apenas uma ferramenta de busca, ela inaugura a capitalização dos dados na era digital.

O Google hoje é o monopólio das ferramentas de busca online. O seu algoritmo determina como nas páginas irão aparecer os resultados, ou seja, um site para ser bem- sucedido precisa obedecer aos padrões exigidos pelo Google para estar no topo dos resultados. Siva Vaidhyanathan (2011, p.28) explica que o Google tem o poder para determinar quais sites serão divulgados e que por consequência disso criou padrões na rede. O autor analisa que a empresa rebaixa sites que não seguem suas diretrizes, assim, passa a impressão de uma web tranquila, cordial, “desde que o navegador usado seja o Google’, completa Vaidhyanathan (2011, p.28).

Com seu programa de publicidade on-line, que adota técnica dos leilões, o Google favorece e recompensa as empresas que criam sites afinados com seus padrões explícitos de qualidade, como páginas simples e fáceis de carregar, sem animações espalhafatosas e, no que diz respeito a busca de termos, com uma coerência que ajuda a garantir aos usuários que, ao clicarem, eles não entrarão num site de pornografia ao buscaram informações sobre viagens (VAIDHYANATHAN, 2011, p.28).

Apesar do Google dominar o mercado de buscas na rede, a empresa ampliou sua área de atuação para outros serviços online. Vaidhyanathan (2011, p.30) analisa que a gingante da informação se tornou uma empresa de mídia geral, pois agora disponibiliza vídeos e textos, com o diferencial de que não é a empresa que os produz, e sim os usuários. Um dos exemplos é o YouTube. Comprado pelo Google em 2006, o site que hospeda vídeos feitos pelos usuários o transformou no líder neste tipo de conteúdo e o colocou no centro de eventos mundiais, como a eleição de Barak Obama a presidência dos Estados Unidos, cita Vaidhyanathan (2011, p.30).

Desde 2002, o Google adquiriu ou criou serviços que ampliaram ainda mais sua influência na rede. A empresa entrou no mundo blogs, das mídias sociais, com processadores de textos e planilhas e armazenamento de arquivos na nuvem, que podem ser compartilhados entre usuários. Também criou seu próprio navegador, o Chrome, seu sistema operacional (principalmente para smartphones), o Android, escaneou livros e forneceu serviços de geolocalização como o Google Maps, Street View e Google Earth. “Como tudo isso é feito

por uma única empresa, ela nem precisa de um rótulo além de seu nome comercial cada vez mais onipresente”, enfatiza Vaidhyanathan (2011, p.31).

“Nas áreas de vídeos, busca de livros fora de catálogo, publicidade on-line e, sem dúvida, a pesquisa na rede, o Google tem uma liderança tão avassaladora que outros concorrentes nem mesmo esperam poder criar a infraestrutura necessária para competir com ele a longo prazo”, explica Vaidhyanathan (2011, p.31). O sucesso da empresa se deve ao funcionamento de seus serviços. Além de oferecer uma gama de opções ao usuário, o Google criou um ambiente confortável que o faz necessitar dele. Vaidhyanathan (2011, p.66) detalha:

O Google funciona para nós porque ele parece ler nossa mente – e, em certo sentido, é o que faz. Ele adivinha o que uma pessoa pode estar procurando com base nas buscas feitas por ela e por outros iguais a ela. Ela pode digitar um termo vago na caixa de busca do Google, sem saber exatamente como verbalizar o que deseja, e é bem provável que o Google lhe apresente uma lista extraordinariamente apropriada de coisas que ela talvez queira encontrar. Além disso, o Google nos condiciona a aceitar essa lista e acreditar que, de fato, ela nos oferece o que queremos. A capacidade de sugestão do Google Web Search, explicitada pela lista de opções que aparece quando começamos a digitar, é a mágica que nos aprisiona. De muitas maneiras, o Google nos avaliou e compreendeu melhor do que nós próprios os faríamos.

Esta análise que o Google faz tem como objetivo final vender anúncios aos usuários. A tática utilizada pela gigante da informação se espalhou para outras empresas e se tornou o padrão de capitalizar a informação na web. O Facebook é uma delas. Criado em 2004 por Mark Zuckerberg, a principal mídia social do planeta, que hoje conta com mais de 2 bilhões de usuários, adicionou um fator primordial em sua rede: o botão curtir. David Sumpter (2019, p.22) analisa que o ato de curtir postagens na plataforma de Zuckerberg fornece um insight poderoso sobre quem é o usuário. Sumpter (2019, p.41) detalha o algoritmo do Facebook:

Por isso, o algoritmo do Facebook começa escolhendo um conjunto aleatório de dimensões com as quais possa nos descrever. O algoritmo avalia, então, o desempenho dessas dimensões aleatórias, permitindo que ele encontre um novo conjunto de dimensões que melhore sua descrição. Depois de apenas algumas poucas iterações, o Facebook consegue ter uma ideia bastante boa das componentes mais importantes que descrevem seus usuários.

Estas características descritas de duas das maiores empresas da informação demonstram como a rede, inicialmente criada para ser um local descentralizado e sem hierarquias, tomou outra direção. Ambas as empresas representam o monopólio dos dados, com a consequência de centralizar a rede. James Gleick (2013, p.404), crê que a sociedade vive uma enxurrada de informações, e explicita o papel do Google e exemplifica a centralização da rede:

Uma metáfora conhecida é a nuvem. Toda aquela informação – toda aquela capacidade de informação – paira sobre nós, não exatamente visível, não exatamente tangível, mas incrivelmente real; amorfa, espectral; sobrevoando bem próxima, sem estar situada num determinado lugar. O paraíso deve um dia ter transmitido essa sensação aos fiéis. As pessoas falam em transferir suas vidas para a nuvem – ao menos suas vidas informacionais. É possível armazenar fotografias na nuvem; o Google vai cuidar de seus negócios na nuvem; o Google está pondo livros do mundo na nuvem; o e-mail vai e vem da nuvem, e nunca deixa de fato a nuvem. Todas as ideias tradicionais de privacidade, com base em portas e trancas, distância física e invisibilidade, são postas de cabeça para baixo na nuvem.

Nesta direção, é de que a web centralizada precisa receber uma classificação científica, devido as suas características que hoje são diferentes das criadas por Tim Berners-Lee no início da década de 1990. As redes centralizadas passaram a serem chamadas de Clearnet. O pesquisador em sociologia da tecnologia, Christian Papsdorf (2016, p.6), explica que as terminologias utilizadas para definir as redes de hoje não seguem um critério científico. Papsdorf (2016, p.6) propõe duas terminologias para dividir a internet. O autor a divide em hidden web e clearnet. Para ele ambos os termos refletem melhor as propostas e os critérios para análise destas redes, que são a dimensão pública as quais elas atingem ou não e a visibilidade que possuem ou não (2016, p.6).

A classificação é feita pela forma como as redes funcionam: a clearnet permite a comunicação pública, o fácil acesso aos sites e conteúdos através de buscadores, além de alguma anonimicidade. Por isso e denominação clear, que em inglês significa claro, transparente, que é como o fluxo de dados é tratado nesta parte da web. Já a hidden web possui serviços e dados ocultos, para acessar os sites desta rede é necessário saber o endereço, além de possuir buscadores limitados para encontrar novos conteúdos. O que explica o uso de hidden, que significa oculta, ou seja, fora do radar dos usúarios comuns da web. O autor então conclui:

A utilização destes dois termos separados assume que ambas as esferas de comunicação compartilham a mesma infra-estruturas básicas: a Internet. A Internet, com as suas condutas de dados físicos, servidores e roteadores e os inúmeros protocolos de software, forma a fundação de uma infinidade de meios de comunicação web, o que pode subsequentemente ser dividido em duas esferas de comunicação (PAPSDORF, 2016, p.6, tradução nossa6).

A outra esfera de comunicação citada por Papsdorf, a hidden web, ou Deep Web como ficou popularmente conhecida, ocupa uma boa parte da internet e possui relevância para se entender as interações nas redes. Apesar de oculta, ela tem uma forte influência na clearnet e,

6 Do original: The use of these two separate terms assumes that both communication spheres share the same basic infrastructure: the Internet. The Internet, with its physical data pipelines, servers and routers and the countless software protocols, forms the foundation of a plethora of web media, which can subsequently be divided into two communication spheres.

por isso, se faz necessário compreendê-la para entender as dinâmicas que acontecem na web moderna.

No documento Download/Open (páginas 61-66)