• Nenhum resultado encontrado

3 METODOLOGIA DE OTIMIZAÇÃO FRACTAL EM REDES VIRTUAIS

3.2 Cenários de experimentação

3.2.1 Cenários de Experimentação 1 – Roteadores Virtuais

Os experimentos nos roteadores virtuais foram realizados usando como hardware principal um Intel® Core™ i7 CPU M620 @ 2.67GHz × 4, com 8 GB de RAM e disco de 1 TB. O SO usado no host que abrigava os hipervisores de tipo-II foi o Ubuntu 14.04 LTS de 64 bits.

Os hipervisores de tipo-II utilizados foram o Oracle VirtualBox4.3.106 e o VMWare Workstation Player7 7.1.3. As demais características do hardware usado nas

medições, bem como valores de benchmarks de performance de hardware padrões serão expressos como saída do comando lscpu do Linux na Figura 14.

Figura 14 - Saída do comando lscpu do Host Principal usado no cenário de

experimentação dos roteadores virtuais

Fonte: dados da pesquisa / 2019

As medições do tráfego TCP foram conduzidas em todas as interfaces de rede emuladas pelo VirtualBox, quais sejam: AMD PCNet PCI II (Am79C970A), AMD PCNet FAST III (Am79C973, padrão), Intel PRO/1000 MT Desktop (82540EM) e Intel PRO/1000 T Server (82543GC), ver figuras 15 e 16. No VMWare Player Workstation os experimentos foram executados apenas em uma única interface de rede virtualizada Contudo, a interface de rede para-virtualizada (virtio-net) do VirtualBox, que pode ser customizada, não foi usada nas medições deste trabalho.

A Figura 15 apresenta como foram realizadas as configurações de rede no VirtualBox. Estas configurações são relacionadas a cada um dos roteadores virtuais em análise. Note que o Adaptador 1 deve estar conectado a uma Placa de rede exclusiva

de hospedeiro (host-only), onde ambas as VMs Guest devem fazer parte da mesma

rede virtual de nome vboxnet0.

Em seguida, observe a Figura 16 que especifica qual o Tipo de Placa de rede emulada pelo VirtualBox que foi usada para realizar as medições. Vale ressaltar que tanto a VM atuando como DUT, quanto a VM atuando como TG, devem ter todas estas configurações descritas idênticas. Tal padrão foi repetido em todas as distros do Linux 7

VMWare Workstation Player – Disponível na URL:

https://my.vmware.com/en/web/vmware/free#desktop_end_user_computing/vmware_workstation_player/ 12_0

usadas para formar a configuração completa do hipervisor de rede, tanto no hipervisor de tipo-I, quanto no hipervisor de tipo-II.

Uma observação é que cada hipervisor de tipo-I ou tipo-II possui (ou não) suas próprias interfaces de rede emuladas que, quando disponíveis, foram avaliadas individualmente. Contudo, este trabalho não avaliou os hipervisores de rede virtual com interfaces de rede emuladas distintas entre DUT e TG, mas somente as iguais o que, de certo, traria outros resultados, abrindo novas possibilidades de avaliação.

Figura 15 - Configurações básicas para montagem das redes virtuais no VirtualBox -

Rede exclusiva do hospedeiro (host-only)

Fonte: dados da pesquisa / 2019

Figura 16 - Configurações básicas para montagem das redes virtuais no VirtualBox -

Tipos de placas de redes emuladas pelo VirtualBox

Para avaliar o desempenho dos roteadores virtuais, de todas as estratégias, foi criada a topologia de avaliação Guest-to-Guest-to-Container para cada um dos hipervisores de rede avaliados que serão detalhados, bem como ilustrados, na Figura 17. A seguir será descrita a topologia:

Guest-to-Guest-to-Container (GGC) – Medições foram conduzidas do SO da VM Guest (DUT/sink node), passando pelo virtual switch do VirtualBox, ou VMWare Player Workstation que repassa os pacotes ou requisições para outra VM Guest. A VM Guest, enfim, encaminha os fluxos, via virtual bridge, para o contêiner (TG) e vice-versa. Cabe ressaltar que ambas VMs rodam dentro dos hipervisores tipo-II, com a diferença que o VMWare Player Workstation não é multithread como o VirtualBox. Além disso, foi criado um esquema de roteamento, para que as redes tivessem alcançabilidade, além de que as informações fluissem da origem para o destino (e vice-versa). Tal topologia é a mesma usada, tanto para o Docker (docker0, Figura 5), quanto para o LXC (veth, Figura 4) e pode ser observada na Figura 17.

Figura 17 - Topologia de experimentação GGC

Fonte: pesquisa/2019

Para criar um roteador virtual em uma VM Guest, é necessário montar todo o arcabouço de experimentação. Logo, este ferramental é formado inicialmente pelo hipervisor de tipo-II (VMWare Workstation x VirtualBox) com uma das intefaces de rede emulada da ferramenta VirtualBox ou a interface emulada do VMWare, além da distribuição Linux, que abriga o SO principal da VM Guest (Arch 12, Fedora 24,

OpenSUSE 42.2, Ubuntu 14.04 Server e Ubuntu 16-04 Server) e, finalmente, uma das ferramentas de contêiner em análise (Docker versus LXC).

A aplicação da ferramenta de benchmark iperf usada tinha a versão 2.0.5. Vale ressaltar que em ambas as VMs Guest, nesta topologia, todas as configurações avaliadas possuíam 1 GB de RAM virtual (vRAM) e 1 CPU virtual (vCPU). Ademais, para a padronização e avaliação pontual de cada uma das distros do Linux, os SOs das VMs Guest e o SO do contêiner rodavam a mesma distribuição, ou seja, quando a VM DUT rodava Arch12, a VM Guest oposta também executava Arch12, bem como o contêiner – que atua como TG – também executa o Arch12.

Para descrever todo este arcabouço de ferramentas, para montagem das redes virtuais observe a Tabela 3.

Tabela 3 – Versões e características dos Softwares e SOs usados nas medições GGC

SO Guest Contêiner

Distribuição Versão Kernel Ferramenta Versão Distribuição

Arch Linux 12 4.8.13-1-ARCH

Docker 1.12.3 Arch Linux LXC 2.0.6 Fedora 24 4.8.15-200.fc24-x86_64 Docker 1.10.3 Fedora LXC 2.0.6 OpenSUSE 42.2 4.4.36-8-default Docker 1.12.3 OpenSUSE LXC 1.1.12 Ubuntu Server 14.04 3.13.0-44generic Docker 1.4.1 Ubuntu LXC 1.0.7 Ubuntu Server 16.04 4.4.0-31-generic Docker 1.12.1 Ubuntu LXC 2.0.6

Fonte: dados da pesquisa / 2019

Vale ressaltar que este cenário rodou uma avaliação estática (com apenas uma grande série temporal) e uma dinâmica (com várias séries temporais independentes entre si) por DMU para predição.