• Nenhum resultado encontrado

3.1 Descrição geral do experimento

3.1.1 Coleção de idéias

O conceito de Redes da Próxima Geração (Next Generation Network) abrange o emprego de serviços de voz e vídeo, multimídia, compartilhamento de dados em formato texto ou gráfico, com razoável qualidade de serviço, segurança e custo reduzido (LIU; LIANG,2009). É pertinente afirmar, complementarmente, que as tecnologias de acesso estão cada vez mais heterogêneas com distintas velocida- des de conexão, ao qual representa outro fator na administração dessas redes de computadores.

Uma infraestrutura de rede é composta por diversos equipamentos ativos de rede, como switches, switches gerenciáveis, roteadores, pontos de acesso sem fio, além de servidores que garantem o funcionamento das diversas aplicações e servi- ços nesse ambiente. Para diferentes serviços e aplicações, diferentes métricas são analisadas e interpretadas de maneira que se garanta a gerência da performance.

Nessa discussão de como as variáveis podem se interagir,Leinwand e Conroy

(1996) ilustram os seguintes casos:

• um servidor de arquivos, carga de processamento, percentual de uso do disco e utilização da placa de rede são informações pertinentes para análise de sua performance. Um processador com alta carga de processamento implica na lentidão na execução de processos do sistema, assim como leitura e escrita de dados em disco. Da mesma forma, a alta utilização de discos rígidos pode acarretar em queda da performance de acesso aos dados e risco de perda de informações;

• em dispositivos ou servidores encarregados de realizar o roteamento de co- nexões, métricas como carga de processamento, uso da memória, quantidade de pacotes trafegados, enfileirados e descartados permitem a análise e o en- tendimento de problemas em potencial, como congestionamento ou queda da performance da rede. A alta ou total utilização do link disponível para conexão implica em pacotes enfileirados, conforme a demanda do ambiente. Consequentemente, o sistema operacional responsável necessitará processar novamente o envio ou recepção desses pacotes. Isso exige maior recurso de processamento e memória do dispositivo, podendo inclusive ocasionar em perda de pacotes devido ao excessivo tempo que permaneceu enfileirado. Em casos de servidores destinados a recursos de multimídia, é válida a análise das métricas de pacotes descartados e enfileirados, além da quantidade de informa- ção trafegada. Para o serviço de videoconferência, por exemplo, não é interessante que pacotes cheguem com atrasos devido a um congestionamento na rede ou baixa performance de processamento de um dos dispositivos de roteamento. Isso, na prática, implica em visualização distorcidas e atrasos na voz e na imagem. Dessa forma é importante avaliar se não há perda de pacote devido à carga de proces- samento ou uso de memória, além da taxa de vazão de pacotes que representa a qualidade da videoconferência.

Leinwand e Conroy(1996) afirmam que, uma alta taxa de utilização do pro- cessador em um dispositivo aplicado à roteamento, não representa necessariamente queda de performance da conexão desde que o link de saída da rede não tenha grande taxa de utilização. Adicionalmente, analisar a carga de processamento e o uso de memória em dispositivos de roteamento nos leva à construção de algumas linhas de pensamento. A alta carga de processamento pode significar que o equipa- mento não esteja conseguindo tratar todas as conexões, seja pela elevada demanda da rede, seja por algum erro de configuração ou otimização. O consumo excessivo

da memória pode representar grande uso do buffer, ao qual implica em queda de performance.

Além da análise de como as variáveis se interagem em uma infraesutrura de rede, é plausível a discussão de outros pontos complementar à gestão de redes de computadores. Foi discutido no capítulo anterior a questão sobre performance, onde a gerência da rede era feita apenas pelo protocolo ICMP através do comando ping, durante o uso da ARPANET. O ICMP é um protocolo

"usado pela implementação do protocolo IP de estações e roteado- res para trocar informações de erro e controle, sinalizando situações especiais por meio de seus diversos tipos de mensagens"(ESR/RNP,

2005).

Na prática, o emprego do comando ping pelos administradores de rede está relacionado, na grande maioria dos casos, na verificação da resposta do host des- tino. Por questões de segurança, muitos equipamentos estão configurados de modo que não emitam todos os tipos de respostas previstas pelo protocolo ICMP. Essa prática de segurança inutiliza essa finalidade de uso do comando ping. Por outro lado, através de seus resultados como ilustrados na Figura 3.1, é possível obter algumas métricas estatísticas quanto ao desempenho da rede.

$ ping www.terra.com.br -c 5

PING www.terra.com.br (200.154.56.80) 56(84) bytes of data.

64 bytes from www.terra.com.br (200.154.56.80): icmp_seq=1 ttl=246 time=56.0 ms 64 bytes from www.terra.com.br (200.154.56.80): icmp_seq=2 ttl=246 time=56.1 ms 64 bytes from www.terra.com.br (200.154.56.80): icmp_seq=3 ttl=246 time=56.3 ms 64 bytes from www.terra.com.br (200.154.56.80): icmp_seq=4 ttl=246 time=57.3 ms 64 bytes from www.terra.com.br (200.154.56.80): icmp_seq=5 ttl=246 time=56.4 ms

--- www.terra.com.br ping statistics ---

5 packets transmitted, 5 received, 0% packet loss, time 4005ms rtt min/avg/max/mdev = 56.014/56.469/57.336/0.506 ms

Figura 3.1: Saída do comando ping

Na última linha da resposta do comando ping temos os valores mínimo, mé- dio, máximo e desvio padrão para o round-trip-time (RTT).ESR/RNP(2008) de- fine o RTT como o tempo necessário para ida e volta do pacote ICMP, medido em milisegundos. Leinwand e Conroy (1996) ressalta que o round-trip-time é uma boa estimativa para o tempo total de resposta, devido ao fato da aplicação adicio- nar um tempo relativamente pequeno para processar o pacote do protocolo ICMP.

Entretanto, a abordagem do valor do tempo total de resposta não se aplica exclusi- vamente para o comando ping.

Observado o tempo total de resposta, definimos como latência todo o atraso agregado ao valor final, proveniente de aplicações e pontos de roteamento. Trivi- almente percebe-se que toda comunicação terá uma latência, relacionando forte- mente com a qualidade de uma conexão. Dessa forma a latência pode ser incre- mentada ou reduzida em função :

• do número de nós roteáveis entre os hosts remetente e destinatário;

• do overhead gerado pelas aplicações que fazem algum tipo de tratamento das conexões;

• da qualidade do meio físico que a conexão se propaga;

• do desempenho de servidores, equipamentos e dispositivos de redes; • do planejamento incorreto da rede, como erro no endereçamento dos dispo-

sitivos ou cascateamento de ativos de rede, implicando em gargalos e colisão de pacotes.

Denominamos como jitter a variação dos valores de latência de uma conexão. Toda conexão possui jitter onde quanto menor for o valor, mais estável será a co- nexão estabelecida. Mais uma análise a partir da Figura3.1mostra que o desvio padrão dos valores de RTT, considerando que pode ser estimado como tempo total de resposta, representa o jitter de um conjunto de pacotes enviados. Adicional- mente uma conexão, como exemplo videoconferência, não terá grande problemas de funcionalidades caso possua uma latência alta desde que tenha o jitter estabili- zado.

Tanenbaum (1997) relaciona ainda mais alguns elementos que auxiliam na gerência do desempenho de uma rede:

• probabilidade de falha no estabelecimento da conexão: chance de uma co- nexão não ser estabelecida dentro de um dado intervalo de tempo;

• throughput: quantidade de dados, em bytes ou bits, trafegados por segundo em um dado intervalo de tempo;

• taxa de erros residuais: percentual de mensagens perdidas ou com erros; • prioridade: estabelecimento de ordem no tratamento das conexões;

• resiliência: autonomia à camada de transporte para encerramento de cone- xões oriundos de congestionamento ou problemas internos.

Em ambientes críticos com elevado grau de congestionamento, caracterizados principalmente pela saturação dos equipamentos que provêm conexão, adotam- se algoritmos para controle de congestionamento nativos no kernel GNU/Linux. Implementados pela variável net.ipv4.tcp_congestion_control do sysctl, os algo- ritmos que passíveis de implementação em um servidor GNU/Linux são: reno, vegas, HSTCP, STCP, cubic, westwood e fast TCP (SOUSA,2007). Não é o foco do presente trabalho detalharmos e implementarmos um desses algoritmo visto a sua complexidade. Além de todo o estudo e análise da adoção desses algoritmos, é pertinente a previsão do impacto da sua implantação em todo o sistema opera- cional. Adicionalmente, a implementação desses algoritmos estão submetidos à demandas extremas, com total uso dos recursos dos equipamentos que garantem a conexão à internet.

Documentos relacionados