• Nenhum resultado encontrado

Breve histórico da Computação em Nuvem

4. Estado da Arte da Computação em Nuvem

4.1. Breve histórico da Computação em Nuvem

O paradigma de computação em nuvem não é uma repetição da história. A computação em nuvem surge da necessidade de construir infraestruturas de TI complexas, onde os usuários não necessitam instalar, configurar e atualizar sistemas de software. Além disso, recursos de computação e hardware são propensos a ficarem obsoletos rapidamente. Assim, a utilização de plataformas computacionais de terceiros é uma solução inteligente para os usuários lidarem com infraestrutura de TI. Na computação em nuvem, os recursos de TI são fornecidos como um serviço, permitindo que os usuários o acessem sem a necessidade de conhecimento sobre a tecnologia utilizada. Os usuários e empresas passaram a acessar os serviços sob demanda e independente de localização, o que aumentou a quantidade de serviços disponíveis (Buyya et. al., 2009).

Para descrever o histórico evolutivo da computação em nuvem, é necessário criar uma linha do tempo, informando alguns dos modelos computacionais mais relevantes às necessidades de cada época, de acordo com a utilização de recursos e tipos de dados das empresas e usuários domésticos.

Os primeiros computadores, conhecidos como mainframes, eram estruturas centralizadas formando arquitetura rígida, não-escalável que foram evoluindo com a tecnologia, ganhando rapidamente maiores capacidades de processamento e armazenamento. Tais computadores possuíam um custo tão elevado que não eram vendidos, mas alugados e as licenças de software, em geral atreladas ao fabricante da máquina eram também de alto custo.

Com o aparecimento das redes locais na década de 1980, ocorreu o fenômeno que ficou conhecido como downsizing, onde os minicomputadores em rede tomaram o espaço dos computadores de grande porte (mainframes), fazendo com que as empresas migrassem seus sistemas de informação para essas plataformas. O downsizing trouxe redução de custos de hardware uma vez que a compra de uma plataforma de porte médio equivalia apenas ao custo

de 3 ou 4 meses de aluguel de um computador de grande porte (mainframe). Segundo a referência (Vaquero et. al., 2009), downsizing trouxe maior rapidez e responsabilidade em tomadas de decisões, menos distorções nas comunicações por conta da descentralização dos dados e a delegação de poder das pessoas de maior produtividade. Downsizing também significou problemas e vulnerabilidades em questões de segurança, multiplicações de licenças de software e maior dificuldade de efetivar atualizações, etc.

Também na mesma década de 1980, surgiu a arquitetura Cliente-Servidor, tornando a comunicação entre softwares mais rápida e eficiente, devido à troca de mensagens, definidas em seus protocolos (conjuntos de regras e padrões de comunicação de dados).

Com a chegada da WWW (World Wide Web) na década de 1990 (Taurion, 2009), começa a maior das revoluções mundiais. Em 1992, ocorre a primeira transmissão de um vídeo na Internet, estando conectados na Internet um milhão de servidores. Nos anos seguintes nasceria o comércio eletrônico. A Pizza Hut em 1994 realizou seu primeiro atendimento com pedido realizado pela Internet (Veras, 2011).

A necessidade de processar cada vez mais rápido, maior volume de dados, fez surgir também na década de 1990 as grades computacionais (Skillicorn, 2002), que consistem em fazer uso das redes geográficamente espalhadas (wide area networks) para processar dados compartilhadamente, algumas de dimensões planetárias.

No final da década de 1990, ainda surgiriam outros marcos. O conceito de virtualização nasce muito forte, tendo como alavancador dessa técnica de simulação e emulação de hardware e software, os servidores de virtualizações VMware (VMware, 2013) e Xen (Xen, 2013), como programas virtualizadores. Com esses programa pode-se criar um servidor virtualizado bem como máquinas clientes, usando o computador real como base, e distribuindo seu poder computacional, de forma ordenada, controlada e segura, nas redes locais. Com os sistemas operacionais, principal software do computador, virtualizado e fornecido pela rede, a redução de custos sempre foi o objetivo, então surge o “Thin Client”, (Santos, 2008) o compartilhamento de um microcomputador, por mais de um usuário, pelo simples fato de quase sempre, não se usa todo poder de processamento de um processador para as tarefas de produção empresarial ou doméstica.

A partir do ano 2000, a banda larga chega muito forte no mercado mundial, trazendo consigo uma ampla gama de serviços na Internet, cada vez mais consumido por mais usuários,

aumentando todas as necessidades das tecnologias citadas neste breve hitórico (Taurion, 2009).

Em meados do ano 2005 nascem quase que paralelamente, o Google Apps (Google, 2013), Zoho Office Apps (Zoho, 2013), Amazon WS (AWS, 2013) e projeto Hadoop (Hadoop, 2013), ou seja, nasce a computação em nuvem, mas ainda não com esta terminologia. A partir desse ano, as grandes empresas mundiais de tecnologia da informação perceberam que poderiam disponibilizar suas mega-estruturas computacionais como serviços, sendo contabilizados apenas pelo consumo, pagar apenas pelo o uso, sem comprar o computador físicamente, nem cliente e nem o servidor, mas sim o recurso disponível na Internet, na nuvem computacional, atrelado à empresa fornecedora.

As nuvens computacionais estão sendo utilizadas por empresas dos mais variados ramos de atividades, vendendo, alugando e disponibilizando poder computacional e escalar, de qualidade, com segurança e vários recursos internos que dão garantia para uma empresa como o Peixe Urbano (AWS, 2013). O site de compras coletivas, Peixe Urbano, por não possuir nenhum hardware servidor dentro da empresa, apenas uma rede local que disponibiliza a Internet para seus funcionários, mantém tudo funcionando na nuvem da Amazon, literalmente.

A história da computação em nuvem tende a crescer muito mais nesta década. Desde 2010, o consumo de serviços produzidos por nuvens computacionais e por empresas que hospedam seus serviços nos tipos de nuvens que são disponíveis tem crescido vertiginosamente, mas o paradigma está lançado. Existem desconfianças e descréditos em alguns aspectos, ao mesmo tempo que existem casos de total sucesso e credibilidade.