• Nenhum resultado encontrado

Surgimento e Popularização da Informática

No documento OUTROS TEMPOS, OUTROS ESPAÇOS (páginas 102-107)

O biopoder e a ordem moderna constituem-se em condições de possibilidade para a invenção do computador. Com a emergência do biopoder, no final do século XVIII, surge uma crescente necessidade por parte do Estado de coletar dados sobre a população e analisar esses dados estatisticamente, exigindo, conseqüentemente, a realização de operações matemáticas cada vez mais complexas. Os dados do censo estadunidense de 1880 levaram

sete anos para serem tabulados. Naquela ocasião, o Census Bureau lançou um concurso incentivando a invenção de um método mais rápido para efetuar essa tarefa. O vencedor foi Herman Hollerith, que utilizou cartões perfurados para gravar os dados. Esses cartões seriam lidos por máquinas, dando maior rapidez à tabulação. No censo de 1890, quando foi utilizada a invenção de Hollerith, os dados foram tabulados em três anos. Em função dos resultados obtidos, Hollerith fundou a Tabulation Machine Company (TMC), que em 1924 tornou-se a International Business Machines (IBM). O cartão perfurado foi o método mais utilizado para a leitura de informações até metade do século XX, inclusive como dispositivo de entrada de dados para os primeiros computadores (RUSSO, 2005).

O exercício do biopoder, com sua determinação de maximizar a vida da população, investe tanto na produção de saberes por meio de estratégias das quais o censo demográfico é um exemplo, quanto na eliminação dos supostos perigos que possam ameaçar essa vida que ele quer proteger. O poder de morte nos sistemas políticos que fazem funcionar o biopoder está assentado sobre o racismo de Estado. Segundo Foucault (2002), a eliminação do perigo biológico é o que justifica as guerras travadas pelos Estados modernos. Esse racismo atinge seu máximo com o nazismo. Um Estado absolutamente racista e absolutamente assassino, determinado a exterminar as raças consideradas inferiores, que levou ao limite os mecanismos do biopoder, foi uma das condições para que ocorresse a mais horrenda das guerras do século XX. E foi com a Segunda Guerra que seria criada a necessidade de se projetar máquinas para realizar cálculos balísticos, colocando-se novamente o biopoder como condição de possibilidade para o desenvolvimento da computação.

Entre o final da década de 30 e início da década de 40, surgiram várias máquinas de calcular eletro-mecânicas, precursoras do computador digital. Essas máquinas eram compostas por relés e engrenagens. Destacam-se, nesse período, as máquinas Z1, Z2, Z3 e Z4, criadas pelo alemão Konrad Zuse; o Mark I, criado pela equipe de Howard Aiken, em Cambridge; e o Colossus, criado em 1943 pelo britânico Alan Turing para quebrar códigos secretos alemães. O primeiro computador digital que apareceu foi o ENIAC (Eletronic Numerical Interpreter and Calculator), em 1946. Desenvolvido para fins militares durante a guerra, seu funcionamento era totalmente eletrônico. Tinha capacidade para realizar cerca de 500 operações por segundo (número que fica insignificante perto das 280.000 operações por segundo que um microcomputador pessoal é capaz de realizar em 2005) e era constituído de cerca de 17.500 válvulas. As dimensões de sua base eram de 25x7 m e sua altura era de 5,5m (HISTÓRIA DO COMPUTADOR, 2005). Na década de 50, a invenção do transistor permitiu

reduzir o tamanho dos computadores e começou sua comercialização (até ali os computadores estavam confinados em universidades e instituições de pesquisa).

A palavra computador (computer) era tradicionalmente utilizada na língua inglesa para designar alguém que realizava cálculos aritméticos. Em 1897, foi empregada para nomear uma máquina de calcular mecânica. A partir daí, foi associada com esse tipo de mecanismo e seguiu sendo usada para designar os computadores eletrônicos, mesmo quando eles perderam a função exclusiva de máquinas de cálculo. Na França, até 1955 os computadores eram chamados de calculateurs. Naquele ano, os diretores da subsidiária francesa da IBM decidiram modificar esse termo, pois o consideravam muito restritivo frente à amplitude de suas aplicações. Pediram ao filólogo Jacques Perret que criasse um novo termo que pudesse representar melhor as potencialidades da máquina. Perret, em uma carta, sugere ordinateur, cujo significado constante no tradicional dicionário Littré era “Deus que coloca ordem no mundo” (LIBÉRATION, 2005). Na época, quando ainda todas aplicações da informática estavam voltadas para o cálculo aritmético, justificou-se o uso dessa palavra porque o equipamento em questão era capaz de armazenar ordenadamente uma grande massa de dados e recuperá-la posteriormente. A criação de um dispositivo que coloca ordem nos dados e, concomitantemente, pode contribuir para estabelecer a ordem social através dos dados estatísticos que pode tabular, está em completo acordo com o pensamento moderno.

Em 1960, a IBM apresentou o chip, uma reduzidíssima pastilha de silício que incorpora várias dezenas de transistores já interligados, formando circuitos eletrônicos complexos. A criação do chip permitiu a redução e barateamento do computador, tornando possível sua popularização na década de 70, com a criação dos primeiros microcomputadores. Em 1975, Bill Gates e Paul Allen lançam o primeiro software adaptado para uso em microcomputadores e em 1979 criam o sistema operacional DOS. Em 1977, surgiu o Apple, considerado o primeiro microcomputador comercializado em larga escala. Até então, os computadores tinham por finalidade somente analisar dados e realizar operações matemáticas. Em 1981, a IBM lança o microcomputador Personal Computer, que faz tanto sucesso a ponto de transformar a sigla PC em sinônimo de microcomputador. OS PCs utilizavam o sistema DOS, tornando-o o sistema operacional mais utilizado até a década de 90 (HITMILL, 2005).

Os computadores, inventados com finalidade bélica, começavam a entrar dentro dos escritórios e apareciam os primeiros usuários domésticos. Mas ainda eram pouco atraentes para o grande público, pois seu uso requeria conhecimentos sobre lógica e programação e tinham por finalidade apenas realizar cálculos. No final dos anos 70 são criados os primeiros

aplicativos50 de uso comum, tornando os microcomputadores úteis e acessíveis para uma

maior camada da população. O primeiro aplicativo de uso em larga escala foi o Visicalc, uma planilha eletrônica criada em 1979 (BRICKLIN, 2005). Naquele mesmo ano, surgiu o WordStar, primeiro editor de texto a ser comercializado (KUNDE, 2005). Na década de 80, surgem outros editores de texto e planilhas eletrônicas. A gradativa disseminação dos microcomputadores fez com que aparecessem algumas empresas dedicadas ao desenvolvimento de programas para determinados nichos de mercado.

A década de 70 foi um ponto de inflexão na história da informática, pois é quando o computador passa a ser encarado como uma máquina com diversas potencialidades de uso e como um artefato que pode estar presente nos pequenos escritórios e, talvez, nos lares. As principais transformações que ocorrem tanto no hardware quanto no software a partir da década de 80 estão estreitamente ligadas com a satisfação das necessidades desse grupo de usuários. Ainda que se tenha continuado a desenvolver computadores e softwares para pesquisas e para atender grandes empresas, as inovações mais intensas aconteceram no sentido da popularização da informática. Um dos fatores que mais contribuíram para isso foi a introdução do mouse e das interfaces gráficas.

Até o início dos anos 80, a interface com o usuário constituía-se, naqueles casos em que existia o monitor, em letras e números exibidos numa tela monocromática. Não havia imagens e para acessar os serviços do computador devia-se conhecer determinados comandos. Contudo, desde a década de 60, já existia a preocupação de inventar uma forma mais simples de utilização. Nessa época os computadores ainda não tinham monitores, nem teclados. A entrada de dados era feita por cartões perfurados e a saída, por impressão. O engenheiro Douglas Englebart criou uma interface com o usuário absolutamente inovadora, composta de uma tela montada com um tubo de raios catódicos, um teclado rudimentar que continha apenas as maiúsculas e, novidade absoluta, uma caixinha retangular de madeira, mais ou menos do tamanho de um maço de cigarros, que ao ser movida fazia um ponteiro se deslocar na tela acompanhando seu movimento. Esse dispositivo foi chamado por ele de x-y position indicator, mas, devido a sua aparência, logo passou a ser chamado de mouse (rato), como é conhecido até hoje (PIROPO, 2006).

50 Os aplicativos, também conhecidos como linguagens de quarta geração, são programas

computacionais desenvolvidos para permitir que usuários realizem determinadas tarefas sem necessitar recursos de programação. Estão nessa categoria os editores de texto, as planilhas eletrônicas, os softwares para produzir apresentações eletrônicas e para realizar operações em bancos de dados, os editores de páginas de internet e os softwares de criação de imagens, entre outros. Também são aplicativos os softwares de uso específico, como aqueles utilizados para contabilidade, controle de estoques e projetos de engenharia, por exemplo.

Mais ou menos nesse mesmo período, iniciaram as pesquisas para o desenvolvimento de interfaces gráficas que, por meio de uso de imagens (ícones, botões e barras), tornasse o uso dos computadores mais fácil. Alguns protótipos foram testados, mas foram abandonados porque os equipamentos na apresentavam condições técnicas que tornassem viável seu uso.

O mouse e as interfaces gráficas foram esquecidos até que, em meados de 1979, Steve Jobs fez uma visita ao Centro de pesquisa Palo Alto da Xerox e viu os testes com esses dispositivos. Em 1983 foi lançado pela Macintosh o Lisa, logo seguido pelo Apple, em 1984. Esse último foi o primeiro microcomputador equipado com mouse e interface gráfico bem aceito no mercado. Em 1985 a Microsoft lança, em caráter experimental, o Windows 1.0. Entretanto, essas inovações só chegariam aos usuários do PC em 1991, com o Windows 3.0.

Os ambientes gráficos, que pretendem tornar o uso do computador intuitivo, alavancaram as vendas de computadores pessoais. Após o surgimento do Windows, o número de computadores pessoais em uso teve uma grande expansão. A Figura 6.1 mostra esse crescimento, a partir de dados da empresa eTForecasts (2006). Os 4,8 milhões de computadores existentes em 1980 passaram a ser 938 milhões em 2005. Em apenas 25 anos, aumentou 194 vezes o número de equipamentos em uso no mundo. Segundo essa mesma empresa, o Brasil atualmente tem 20 milhões de computadores, o que o coloca como décimo país com maior número de máquinas. Esse número corresponde a 2,35% do total de computadores em uso. O crescimento de equipamentos de informática no Brasil tem sido acelerado. Em 1995, o país ocupava o décimo quinto lugar, ganhando cinco posições 10 anos.

0,0 200,0 400,0 600,0 800,0 1000,0 1980 1985 1990 1995 2000 2005

Figura 6.1 — Crescimento do número de computadores em uso no mundo (em milhões)

A disponibilização da internet comercial e os navegadores gráficos que surgiram na década de 90 deram novo impulso ao crescimento do número de computadores em uso. A

disseminação da informática e a multiplicação de seus usos chegaram a um ponto tal que o acesso a esse tipo de tecnologias hoje já não é considerado um luxo, mas uma necessidade, mobilizando esforços para minimizar o que vem sendo chamado de exclusão digital. Parece razoável afirmar que os ambientes gráficos e a comercialização da internet estão entre os principais fatores articulados com as mudanças na forma de viver no mundo contemporâneo. O computador, essa máquina que surge como um auxiliar para intensificar a ordem moderna, como um ordenador capaz de tornar a própria ordem mais ordenada, acabou por tornar-se uma das principais condições para o rearranjo e dissolução da Modernidade, contribuindo com a emergência da Contemporaneidade.

No documento OUTROS TEMPOS, OUTROS ESPAÇOS (páginas 102-107)