• Nenhum resultado encontrado

EQUILIBRANDO ENERGIA, REDUNDÂNCIA E DESEMPENHO EM REDES DE CENTROS DE DADOS DEFINIDAS POR SOFTWARE

N/A
N/A
Protected

Academic year: 2021

Share "EQUILIBRANDO ENERGIA, REDUNDÂNCIA E DESEMPENHO EM REDES DE CENTROS DE DADOS DEFINIDAS POR SOFTWARE"

Copied!
115
0
0

Texto

(1)

Universidade Federal da Bahia

Universidade Estadual de Feira de Santana

DISSERTAC

¸ ˜

AO DE MESTRADO

Equilibrando Energia, Redundˆ

ancia e Desempenho em Redes de

Centros de Dados Definidas por Software

Antˆ

onio Cleber de Sousa Ara´

ujo

Mestrado Multi - Institucional

em Ciˆ

encia da Computa¸

ao – MMCC

Salvador - Bahia

7 de outubro de 2016

(2)
(3)

ANT ˆ

ONIO CLEBER DE SOUSA ARA´

UJO

EQUILIBRANDO ENERGIA, REDUND ˆ

ANCIA E DESEMPENHO

EM REDES DE CENTROS DE DADOS DEFINIDAS POR

SOFTWARE

Disserta¸c˜

ao apresentada ao Mestrado

Multi - Institucional em Ciˆ

encia da

Computa¸c˜

ao da Universidade Federal

da Bahia e Universidade Estadual

de Feira de Santana, como requisito

parcial para obten¸c˜

ao do grau de

Mestre em Ciˆ

encia da Computa¸c˜

ao.

Orientador: Leobino Nascimento Sampaio

Salvador - Bahia

7 de outubro de 2016

(4)

ii

Ficha catalogr´afica.

Ara´ujo, Antˆonio Cleber de Sousa

Equilibrando Energia, Redundˆancia e Desempenho em Redes de Centros de Dados Definidas por Software/ Antˆonio Cleber de Sousa Ara´ujo– Salvador - Bahia, 7 de outubro de 2016.

91p.: il.

Orientador: Leobino Nascimento Sampaio.

Disserta¸c˜ao (Mestrado)– Universidade Federal da Bahia, Instituto de Matem´atica, 7 de outubro de 2016.

1. Eficiˆencia Energ´etica. 2. Redes Definidas por Software. 3. Redes de Centros de Dados.

I. Sampaio, Leobino Nascimento. II. Universidade Federal da Bahia. Instituto de Matem´atica. III MMCC.

(5)

iii

TERMO DE APROVAC

¸ ˜

AO

ANT ˆ

ONIO CLEBER DE SOUSA ARA ´

UJO

EQUILIBRANDO ENERGIA, REDUND ˆ

ANCIA

E DESEMPENHO EM REDES DE CENTROS

DE DADOS DEFINIDAS POR SOFTWARE

Esta disserta¸c˜ao foi julgada adequada `a obten¸c˜ao do t´ıtulo de Mestre em Ciˆencia da Computa¸c˜ao e aprovada em sua forma final pelo Mestrado Multi - Institucional em Ciˆencia da Computa¸c˜ao da Universidade Federal da Bahia e Universidade Estadual de Feira de Santana.

Salvador - Bahia, 7 de outubro de 2016

Prof. Dr. Leobino Nascimento Sampaio Universidade Federal da Bahia - UFBA

(Orientador)

Profa. Dra. Fab´ıola Gon¸calves Pereira Greve Universidade Federal da Bahia - UFBA

(Membro interno do programa)

Prof. Dr. Artur Ziviani

Lab. Nacional de Computa¸c˜ao Cient´ıfica - LNCC (Membro externo convidado)

Prof. Dr. Cesar Augusto Cavalheiro Marcondes Universidade Federal de S˜ao Carlos - UFSCar

(6)
(7)

Para meus pais, que mesmo com as limita¸c˜oes de estudo impostas pela ´ardua vida, nunca deixou faltar nada `a fam´ılia, e sempre incentivou com as suas vidas que tanto a minha irm˜a como eu, alcan¸c´assemos tudo aquilo que os estudos podem nos proporcionar, e que nunca ´e hora de parar...

(8)
(9)

AGRADECIMENTOS

Primeiramente, agrade¸co a Deus por mais esta etapa da minha vida. Obrigado por ter me dado vida, sa´ude, apoio, e acima de tudo, pessoas maravilhosas que cruzaram o meu caminho e me ajudaram bastante a trilhar meus passos.

Obrigado a minha fam´ılia que sempre me apoiou e esteve ao meu lado. Vocˆes s˜ao um presente de Deus na minha vida.

Obrigado a minha esposa, que compreendeu os momentos da minha “ausˆencia” e sempre me ajudou naquilo que lhe competia.

Obrigado ao professor Leobino Nascimento Sampaio, meu orientador, por ser muito mais que um professor e orientador, mas um amigo e parceiro para todas as batalhas. Obrigado pelos “pux˜oes de orelha” que me foram dados e pelo perfeccionismo que sempre o acompanha, tudo isso me tornou mais forte. O senhor ´e o melhor professor com quem tive o privil´egio de estudar na minha vida. Seus ensinamentos de ciˆencia e vida perdurar˜ao comigo para sempre.

Obrigado ao professor Artur Ziviani, um parceiro para todas as horas e um pesquisador incans´avel. Sua precis˜ao cir´urgica para detectar problemas e propor novas ideias at´e me assusta. ´E como dizemos na Bahia “enquanto eu estou indo com o milho, o senhor j´a est´a voltando com o cuscuz pronto”. Obrigado pelas in´umeras contribui¸c˜oes ao longo da minha jornada.

A todos os amigos que sempre contribu´ıram comigo em todas as situa¸c˜oes, em especial, Diˆego Braga, Eliseu Torres e ao meu grande parceiro M´arcio Miranda que al´em de dividir uma casa comigo em plena selva amazˆonica, me ajuda a tentar igualar os seus 4 t´ıtulos de p´os-doutorados.

A todos, meu muito obrigado.

(10)
(11)

“Muitos querem aquilo que vocˆe tem, mas v˜ao desistir quando souberem o pre¸co que vocˆe pagou.”

(12)
(13)

RESUMO

Os grandes centros de dados atuais tipicamente adotam redundˆancia de servidores e equipamentos de comunica¸c˜ao para aumento de sua confiabilidade e disponibilidade. Infraestrutura altamente redundante, contudo, consiste num dos desafios da ´area devido ao alto consumo de energia. Esta disserta¸c˜ao apresenta a BEEP, uma estrat´egia energeticamente eficiente para redes de centro de dados definidas por software, baseadas na topologia Fat-Tree. Nossa estrat´egia, implementada atrav´es de uma rede OpenFlow faz uso de m´ultiplos caminhos, atrav´es do MultiPath TCP – MPTCP e da vis˜ao global oferecida por controladores de uma rede definida por software, para equilibrar eficiˆencia energ´etica, n´ıvel de redundˆancia dos equipamentos e ganho de desempenho no atendimento `as demandas de tr´afego. Para alcan¸car este equil´ıbrio, a BEEP procura fazer com que o tr´afego de comunica¸c˜ao seja enviado o mais r´apido poss´ıvel, utilizando-se da maior quantidade poss´ıvel de caminhos distintos existentes entre a origem o destino de uma comunica¸c˜ao. Desta forma, as interfaces dos comutadores permanecem em estado ocioso na maior parte do tempo e, assim, o consumo energ´etico ´e reduzido. Resultados experimentais em variantes da topologia Fat-Tree demonstraram ganhos de eficiˆencia energ´etica com a estrat´egia na ordem de 21% a 47%, em compara¸c˜ao a outras estrat´egias (ECO-RP e GreenCloud ), al´em de melhoria na utiliza¸c˜ao da largura de banda dispon´ıvel, conforme haja mais caminhos alternativos dispon´ıveis em todos os cen´arios avaliados. Al´em de construir a BEEP, as demais contribui¸c˜oes trazidas por esta disserta¸c˜ao s˜ao: i) o desenvolvimento de um ambiente de prototipa¸c˜ao de aplica¸c˜oes de TCP de m´ultiplos caminhos em redes definidas por software, capaz de mensurar e validar novas propostas para economia de energia baseada em elementos de uma rede de centro de dados; e ii) uma avalia¸c˜ao experimental do TCP de m´ultiplos caminhos implementado atrav´es de redes definidas por software para redes de centro de dados.

Palavras-chave: Centro de Dados, MultiPath TCP, Eficiˆencia Energ´etica, Redes Definidas por Software, OpenFlow.

(14)
(15)

ABSTRACT

Current large-scale data centers typically adopt redundancy of servers and communication devices for improved reliability and availability. A major challenge in the area resides in the high energy consumption of the modern data centers with a highly redundant infrastructure. In this context, we present BEEP, an energy-efficient strategy for data center networks (DCNs) software defined based on the fat-tree topology. Our strategy was implemented in an OpenFlow network and combines multipaths (by using MPTCP – MultiPath TCP) and the global overview offered by software-defined networks (SDNs) to balance the energy efficiency, the equipment redundancy level, and the DCN performance. To achieve this balance, the BEEP sends the fastest possible communication using the possible number of existing different paths between source to destination, so that the switches (their interfaces) remain in idle state most of the time to that its energy consumption is reduced. To achieve this purpose, the BEEP uses three components: FM (Fat-Tree Manager) whose function is to manage the interfaces of switches and control network traffic, the DSW whose function is to disable idle interfaces, and ASW whose function is to enable the necessary interfaces for communication to take place over multiple paths between the source and destination of the communication. Experimental results in variations of the Fat-Tree topology demonstrated energy efficiency gains with the strategy on the order of 21% to 47%, compared to other strategies (ECO-RP and GreenCloud), and improvement in utilization of bandwidth available when there alternative paths available in all scenarios and topologies studied. In addition to building the BEEP, the main contributions brought by this thesis are the development of a prototyping environment for TCP Multiple paths applications in SDN, able to measure and validate new proposals for energy savings based on the DCN elements, and an assessment experimental TCP multipath implemented through to software-defined networks for data center networks.

Keywords: Data Center, Fat-Tree, MultiPath TCP, Energy Efficiency, Software-Defined Network, OpenFlow.

(16)
(17)

SUM ´

ARIO

Cap´ıtulo 1—Introdu¸c˜ao 1

1.1 Objetivos . . . 3

1.2 Metodologia . . . 4

1.3 Organiza¸c˜ao . . . 5

Cap´ıtulo 2—Redes de Centro de Dados - DCN 7 2.1 Arquiteturas utilizadas em redes de centro de dados . . . 7

2.1.1 Centros de dados definidos por software . . . 8

2.1.2 Arquiteturas com m´ultiplos caminhos . . . 10

2.2 Eficiˆencia Energ´etica em redes de centro de dados . . . 13

2.3 Propostas para Eficiˆencia Energ´etica em Elementos da DCN . . . 15

2.3.1 ElasticTree . . . 17

2.3.2 PCube . . . 19

2.3.3 HERO . . . 20

2.3.4 GreenCloud . . . 21

2.3.5 ECO-RP . . . 22

Cap´ıtulo 3—Estrat´egia BEEP 25 3.1 O componente Fat-Tree Manager (FM) . . . 26

3.2 O componente de Desativa¸c˜ao de Switches (DSW) . . . 29

3.3 O componente de Ativa¸c˜ao de Switches (ASW) . . . 30

3.3.1 O funcionamento do ASW . . . 31

3.4 Exemplo com as opera¸c˜oes realizadas pelos componentes da BEEP . . . . 32

3.5 O funcionamento da BEEP na topologia Fat-Tree K4 . . . 33

Cap´ıtulo 4—Implementa¸c˜ao 39 4.1 Configura¸c˜ao do MultiPath TCP (MPTCP) . . . 41

4.1.1 Gerenciamento de Caminhos . . . 42

4.1.2 Controle de Fluxo . . . 43

4.1.3 Controle de Congestionamento . . . 44

4.2 Configura¸c˜ao dos Switches . . . 44

4.2.1 Consumo energ´etico dos Switches . . . 45

4.2.2 Os modos de opera¸c˜ao dos Switches utilizados nos experimentos . 46 4.2.3 A desativa¸c˜ao e reativa¸c˜ao de interfaces de switches . . . 47

(18)

xvi SUM ´ARIO

4.2.4 Wake-on-Packet (WoP) . . . 48

4.3 Tr´afego caracterizado . . . 50

Cap´ıtulo 5—Resultados e Discuss˜oes 53 5.1 Avalia¸c˜ao da BEEP quanto ao Desempenho . . . 56

5.1.1 Desempenho quanto a transferˆencia de dados . . . 56

5.1.2 Desempenho quanto a atrasos . . . 58

5.1.3 Desempenho quanto a Transferˆencia de Dados ´Uteis . . . 60

5.1.4 Considera¸c˜oes sobre a avalia¸c˜ao da BEEP quanto ao Desempenho 63 5.2 Avalia¸c˜ao da BEEP quanto a Eficiˆencia Energ´etica . . . 64

5.3 Avalia¸c˜ao da BEEP quanto a Redundˆancia . . . 67

5.3.1 Avalia¸c˜ao de redundˆancia com base no estado de interfaces ativas nos switches . . . 68

5.3.2 Avalia¸c˜ao de redundˆancia com base no estado de interfaces desligadas nos switches . . . 70

5.3.3 Avalia¸c˜ao de redundˆancia com base no estado de interfaces em espera nos switches . . . 72

5.3.4 Considera¸c˜oes sobre a avalia¸c˜ao da BEEP . . . 74

Cap´ıtulo 6—Conclus˜oes 79 6.1 Limita¸c˜oes do Trabalho . . . 80

6.1.1 Topologias em que a BEEP foi testada . . . 80

6.1.2 Estrat´egias comparadas com a BEEP . . . 80

6.1.3 Recursos de tolerˆancia a falhas . . . 80

6.2 Contribui¸c˜oes . . . 81

6.2.1 Publica¸c˜ao e submiss˜oes futuras . . . 81

(19)

LISTA DE FIGURAS

2.1 Camadas da SDN. Adaptado de (KREUTZ et al., 2015). . . 9

2.2 Representa¸c˜ao de um switch OpenFlow (MCKEOWN et al., 2008). . . . 10

2.3 Fluxos TCP e MPTCP. Adaptado de (POL et al., 2012). . . 11

2.4 Comunica¸c˜ao atrav´es do MPTCP. Baseada no Internet-Draft (FORD; RAICIU; HANDLEY, 2012). . . 12

2.5 Topologia ElasticTree (HELLER; SEETHARAMAN; MAHADEVAN, 2006) 18 2.6 O diagrama executado pelos m´odulos da ElasticTree (HELLER; SEETHARAMAN; MAHADEVAN, 2006) . . . 18

2.7 Modelo do modelo experimento criado pela ElasticTree para uma topologia Fat-Tree k = 4 (HELLER; SEETHARAMAN; MAHADEVAN, 2006). Cada NetFPGA emulam 4 servidores com conex˜oes de 1GB. . . . 19

2.8 Estrat´egia PCube mostrando um exemplo das topologias: (a) PCube (2, 4, 4), (b) PCube (2, 4, 3) e (c) PCube (2, 4, 2). Figura adaptada de (HUANG et al., 2011). . . 20

2.9 Otimiza¸c˜oes realizadas pelo HERO: (a) a n´ıvel do POD, e (b) a n´ıvel do n´ucleo (ZHANG; ANSARI, 2015). . . 21

2.10 Arquitetura da GreenCloud em uma topologia de 3 n´ıveis (KLIAZOVICH; BOUVRY; KHAN, 2012). . . 22

3.1 Componentes da estrat´egia BEEP . . . 26

3.2 Processos de Desativa¸c˜ao e Ativa¸c˜ao de Switches na estrat´egia BEEP . . 28

3.3 A¸c˜oes realizadas nas interfaces pelos componentes DSW e ASW . . . 33

3.4 Exemplo de comunica¸c˜ao entre dois hosts atrav´es da estrat´egia BEEP. . . 34

3.5 Exemplo de comunica¸c˜ao Intra-Switch na estrat´egia BEEP. . . 35

3.6 Exemplo de comunica¸c˜ao Intra-POD na estrat´egia BEEP. . . 35

3.7 Exemplo de comunica¸c˜ao Inter-POD na estrat´egia BEEP. . . 36

3.8 Exemplo com a Fat-Tree sem tr´afego na estrat´egia BEEP. . . 37

4.1 Ambiente experimental da estrat´egia BEEP. i) topologias Fat-Tree emuladas no Mininet; ii) componentes da estrat´egia BEEP; iii) atua¸c˜ao do protocolo OpenFlow e; iv) vis˜ao global da rede passada para a BEEP pelo controlador OpenFlow. . . 41

4.2 Exemplo de Deslizamento de Janelas utilizado na implementa¸c˜ao da BEEP. 43 4.3 O Protocolo LLDP. Adaptado de (CHOI, 2013). . . 45

4.4 Cabe¸calho de um pacote OpenFlow (SUH et al., 2014). . . 45

4.5 HP Aruba 3800 Switch Series (HPE, 2016) - Switch utilizado como parˆametro nos experimentos. . . 46

(20)

xviii LISTA DE FIGURAS

4.6 Estados das interfaces configuradas nos Switches e os elementos respons´aveis pelas a¸c˜oes de ativa¸c˜ao e desativa¸c˜ao das interfaces de rede. 48 4.7 Est´agios de funcionamento do Wake-on-Packet (WoP) . . . 49 4.8 Arquitetura do D-ITG. Adaptado de (INTERACTION; ENGINEERING;

II”, 2013). . . 51 5.1 Gr´aficos agregados com os resultados quanto ao tempo gasto para as

transferˆencias das cargas de trabalho. . . 59 5.2 Gr´aficos agregados com os resultados quanto as m´edias obtidas com o

Round Trip Delay. . . 61 5.3 Gr´aficos agregados com os resultados quanto `a quantidade de dados ´uteis

transferidos. . . 63 5.4 Gr´aficos agregados com o desempenho da BEEP com as diferentes cargas

de trabalho. . . 65 5.5 Gr´aficos com os resultados quanto ao consumo energ´etico pelos Switches. 67 5.6 Gr´aficos agregados com os resultados quanto a quantidade de interfaces

ativas. . . 70 5.7 Agregado com os resultados quanto a quantidade de interfaces desligadas. 72 5.8 Gr´aficos agregados com os resultados quanto a quantidade de interfaces

em espera. . . 74 5.9 Agregado com o desempenho da BEEP com as diferentes cargas de trabalho. 75 5.10 Gr´aficos agregados com os estados das interfaces da BEEP com as

(21)

LISTA DE TABELAS

4.1 Parˆametros dos Switches OpenFlow utilizados nos experimentos. . . 46 5.1 Quantidade de hosts, switches, e interfaces de comunica¸c˜ao para cada

topologia Fat-Tree emulada nos experimentos. . . 54 5.2 Resultados da avalia¸c˜ao da transferˆencia da carga de trabalho de 10GB

entre os hosts. . . 56 5.3 Resultados da avalia¸c˜ao da transferˆencia da carga de trabalho de 20GB

entre os hosts. . . 57 5.4 Resultados da avalia¸c˜ao da transferˆencia da carga de trabalho de 100GB

entre os hosts. . . 57 5.5 Resultados da avalia¸c˜ao da transferˆencia da carga de trabalho de 200GB

entre os hosts. . . 57 5.6 Percentual de vantagem da BEEP em rela¸c˜ao a outras estrat´egias avaliadas

com base no tempo total para transferˆencia . . . 58 5.7 Resultados da avalia¸c˜ao dos atrasos obtidos durante a transferˆencia da

carga de trabalho de 10GB entre os hosts. . . 59 5.8 Resultados da avalia¸c˜ao dos atrasos obtidos durante a transferˆencia da

carga de trabalho de 20GB entre os hosts. . . 60 5.9 Resultados da avalia¸c˜ao dos atrasos obtidos durante a transferˆencia da

carga de trabalho de 100GB entre os hosts. . . 60 5.10 Resultados da avalia¸c˜ao dos atrasos obtidos durante a transferˆencia da

carga de trabalho de 200GB entre os hosts. . . 60 5.11 Resultados da avalia¸c˜ao do percentual de utiliza¸c˜ao de dados ´uteis obtidos

durante a transferˆencia da carga de trabalho de 10GB entre os hosts. . . 61 5.12 Resultados da avalia¸c˜ao do percentual de utiliza¸c˜ao de dados ´uteis obtidos

durante a transferˆencia da carga de trabalho de 20GB entre os hosts. . . 62 5.13 Resultados da avalia¸c˜ao do percentual de utiliza¸c˜ao de dados ´uteis obtidos

durante a transferˆencia da carga de trabalho de 100GB entre os hosts. . . 62 5.14 Resultados da avalia¸c˜ao do percentual de utiliza¸c˜ao de dados ´uteis obtidos

durante a transferˆencia da carga de trabalho de 200GB entre os hosts. . . 62 5.15 Resultados da avalia¸c˜ao do consumo energ´etico obtidos durante a

transferˆencia da carga de trabalho de 10GB entre os hosts. . . 65 5.16 Resultados da avalia¸c˜ao do consumo energ´etico obtidos durante a

transferˆencia da carga de trabalho de 20GB entre os hosts. . . 65 5.17 Resultados da avalia¸c˜ao do consumo energ´etico obtidos durante a

transferˆencia da carga de trabalho de 100GB entre os hosts. . . 66

(22)

xx LISTA DE TABELAS

5.18 Resultados da avalia¸c˜ao do consumo energ´etico obtidos durante a transferˆencia da carga de trabalho de 200GB entre os hosts. . . 66 5.19 Percentual de vantagem da BEEP em rela¸c˜ao a outras estrat´egias avaliadas

com base no consumo energ´etico . . . 66 5.20 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces ativas nos

experimentos com carga de trabalho de 10GB entre os hosts. . . 68 5.21 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces ativas nos

experimentos com carga de trabalho de 20GB entre os hosts. . . 68 5.22 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces ativas nos

experimentos com carga de trabalho de 100GB entre os hosts. . . 69 5.23 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces ativas nos

experimentos com carga de trabalho de 200GB entre os hosts. . . 69 5.24 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces desligadas

nos experimentos com carga de trabalho de 10GB entre os hosts. . . 70 5.25 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces desligadas

nos experimentos com carga de trabalho de 20GB entre os hosts. . . 71 5.26 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces desligadas

nos experimentos com carga de trabalho de 100GB entre os hosts. . . 71 5.27 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces desligadas

nos experimentos com carga de trabalho de 200GB entre os hosts. . . 71 5.28 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces em espera

nos experimentos com carga de trabalho de 10GB entre os hosts. . . 73 5.29 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces em espera

nos experimentos com carga de trabalho de 20GB entre os hosts. . . 73 5.30 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces em espera

nos experimentos com carga de trabalho de 100GB entre os hosts. . . 73 5.31 Resultados da avalia¸c˜ao da redundˆancia atrav´es das interfaces em espera

(23)

LISTA DE SIGLAS

ACPI Advanced Configuration and Power Interface APM Application Performance Management

ASW Activation Switch

BALIA BAlanced LInked Adaptation

BEEP Balanced Energy, rEdundancy, and Performance BWs Balanced Workloads

CAGR Compound Annual Growth Rate CAM Content Addresseable Memory

CIWs Computationally Intensive Workloads CMCF Constraint Multi-Commodity Flow D-ITG Distributed Internet Traffic Generator DCN Data Center Network

DIWs Data-Intensive Workloads DSW Deactivation Switch

DVFS Dynamic Voltage and Frequency Scaling FLOPS Pontos Flutuantes por Segundo

FM Fat-Tree Manager

HERO Hierarchical EneRgy Optimization HLSDB Historical Link State Database

ISO International Standardization Organization LLDP Link Layer Discovery Protocol

LLDPDU Link Layer Discover Protocol Data Unit

(24)

xxii LISTA DE SIGLAS

LSA Link State Adptation

MIB Management Information Base MIP Mixed Integer Program

MPTCP MutiPath TCP MTU Max Transmission Unit NSA Network State Advertisement NSDB Network State Database NTC Network Traffic Consolidation OSI Open System Interconection

POD Performance Optimized Datacenter RTT Round Trip Time

SAT Source Address Table SDN Software Defined Network SLC Server Load Consolidation

SNMP Simple Network Management Protocol TCAM Ternary Content-Addressable Memory TFO TCP FastOpen

TLP TCP Tail-Loss Probe TSQ TCP Small-Queues TWh Terawatt/hora WoP Wake on Packet

(25)

Cap´ıtulo

1

Neste primeiro cap´ıtulo s˜ao mostrados o contexto atual dos centros de dados e quais s˜ao os principais problemas e desafios enfrentados em rela¸c˜ao ao seu consumo de energia, fatos estes que nortearam as pesquisas realizadas nesta disserta¸c˜ao. Al´em disso, tamb´em s˜ao explanados os objetivos, a metodologia utilizada para a constru¸c˜ao e desenvolvimento desta pesquisa e como esta disserta¸c˜ao est´a organizada.

INTRODUC

¸ ˜

AO

Os centros de dados (do inglˆes, Datacenter ) s˜ao infraestruturas de computa¸c˜ao de larga escala concebidos para atender uma miss˜ao cr´ıtica de operar, de acordo com seu clock de processamento (BUYYA; VECCHIOLA; SELVI, 2013), para impulsionar o r´apido crescimento da ind´ustria de Tecnologia da Informa¸c˜ao (TI) e transformar a economia em geral (BUYYA; BELOGLAZOV; ABAWAJY, 2010).

A criticidade do aumento da quantidade de centros de dados tem sido alimentada principalmente por dois fatores. O primeiro fator ´e relativo ao crescente aumento da demanda por dados, processamento e armazenamento por uma variedade de servi¸cos em nuvem em grande escala, tais como Google1 e Facebook2, por parte dos operadores de telecomunica¸c˜oes, tal como a British Telecom3 (KRUG; SHACKLETON; SAFFRE, 2014), por grandes bancos, dentre outros, resultou na prolifera¸c˜ao de grandes centros de dados, com milhares de servidores e de equipamentos para interconex˜ao dos dispositivos. O segundo fator est´a ligado `a necessidade de dar suporte a uma grande variedade de aplica¸c˜oes que v˜ao desde aquelas que s˜ao executadas por um tempo peri´odico espec´ıfico ou ainda aquelas que funcionam de forma persistente em plataformas de hardware compartilhados (BUYYA; BELOGLAZOV; ABAWAJY, 2010), o que promoveu a constru¸c˜ao de infraestruturas de computa¸c˜ao de grande escala. Devido a estes motivos os centros de dados tˆem sido apontados como uma das tecnologias facilitadoras essenciais para o r´apido crescimento da ind´ustria de TI e, ao mesmo tempo, resultando em um mercado global de 172 bilh˜oes de d´olares at´e os dois primeiros meses de 2016 (DAYARATHNA; WEN; FAN, 2016). Assim sendo, os centros de dados,

1http://www.google.com/ 2http://www.facebook.com/ 3http://home.bt.com/

(26)

2 INTRODUC¸ ˜AO

principalmente aqueles que operam em larga escala, possuem elevados or¸camentos de energia, que deram origem a v´arias quest˜oes sobre a utiliza¸c˜ao de seus recursos.

Por tais motivos, a eficiˆencia energ´etica dos centros de dados atingiu uma importˆancia fundamental para a TI e para a economia nos ´ultimos 20 anos devido ao seu: i) impacto econˆomico, ii) impacto ambiental, e iii) impacto no desempenho.

Quanto ao impacto econˆomico, geralmente um centro de dados pode consumir energia suficiente para atender a 25.000 domic´ılios. Em alguns cen´arios, eles podem consumir de 100 a 200 vezes mais eletricidade que um escrit´orio padr˜ao (POESS; NAMBIAR, 2008). At´e o ano de 2010, os custos com energia tinham a tendˆencia de dobrar a cada cinco anos (BUYYA; BELOGLAZOV; ABAWAJY, 2010). Portanto, com tal aumento acentuado do consumo energ´etico, aliado aos custos crescentes de energia el´etrica, fizeram com que as contas de energia se tornassem um gasto significativo para os centros de dados atuais (POESS; NAMBIAR, 2008; GAO et al., 2013). Em algumas situa¸c˜oes, os custos de energia podem at´e exceder os custos obtidos com a aquisi¸c˜ao do hardware (RIVOIRE et al., 2007).

J´a quanto ao impacto ambiental, um estudo realizado em 2005 sobre consumo energ´etico dos centros de dados dos Estados Unidados revelou que o consumo total de energia obtido por eles representaram 5% do consumo total de energia do pa´ıs. Al´em de que, emitiram mais gases que geram o efeito estufa do que um pa´ıs de porte m´edio como a Argentina (MATHEW; SITARAMAN; SHENOY, 2012). Em 2010, o uso global de eletricidade em um centro de dados foi estimada entre 1,1% e 1,5% do consumo total de eletricidade mundial (ANDRAE; EDLER, 2015), enquanto que nos EUA os centros de dados consumiram entre 1,7% a 2,2% de toda a energia el´etrica consumida no pa´ıs (KOOMEY, 2011). Um estudo recente realizado por (HEDDEGHEM et al., 2014) descobriu que os centros de dados em todo o mundo consumiram um total de 270 TWh (Terawatt/hora) de energia em 2012, e segundo o Compound Annual Growth Rate (CAGR) este consumo teve uma taxa de crescimento anual na ordem de 4,4% entre 2007 e 2012. Devido estas raz˜oes a eficiˆencia energ´etica dos centros de dados ´e considerada uma das principais preocupa¸c˜oes para gestores de centro de dados, muitas vezes `a frente de fatores considerados mais tradicionais como disponibilidade e seguran¸ca. Uma vez que, independente da fonte de energia a ser utilizada, seu consumo exagerado contribui para o aumento de algum tipo de polui¸c˜ao.

Por fim, quanto ao impacto no desempenho, mesmo quando um servidor ou qualquer equipamento de intercomunica¸c˜ao (switches e roteadores) est˜ao em estado ocioso eles consomem uma quantidade significativa de energia (BARROSO; HOLZLE, 2007). No entanto, algumas solu¸c˜oes para reduzir o consumo energ´etico consistem em desligar estes servidores ou equipamentos. Entretanto, um fator a ser observado ´e que estas t´ecnicas de economia de energia, de modo geral, possuem como caracter´ıstica reduzir o desempenho do sistema, sendo necess´ario a realiza¸c˜ao de um complexo equil´ıbrio entre economia de energia e alto desempenho.

Com a inten¸c˜ao de atenuar estes problemas enfrentados pelos centros de dados, pesquisadores tem proposto e discutido novas ideias no tange a cria¸c˜ao de novas arquiteturas, topologias, e estrat´egias para reduzir o consumo energ´etico dos equipamentos. Entretanto, devido a alta complexidade em prover uma solu¸c˜ao que

(27)

1.1 OBJETIVOS 3

atenda a todos os crit´erios exigidos, muitas vezes estas pesquisas resultam solu¸c˜oes para apenas algum elemento necess´ario, em detrimento de outros.

Logo, visando atender `a necessidade de equilibrarmos o consumo energ´etico, o desempenho obtido nas comunica¸c˜oes e a redundˆancia de equipamentos, esta disserta¸c˜ao apresenta a estrat´egia Balanced Energy, rEdundancy, and Performance (BEEP). A BEEP ´e uma estrat´egia concebida para realizar este equil´ıbrio em redes de centros de dados baseadas em topologias hier´arquicas (como a Fat-Tree), que explora os recursos dispon´ıveis no paradigma das Redes Definidas por Software (do inglˆes, Software Defined Network - SDN). Este fator fornece a BEEP uma maior flexibilidade de a¸c˜oes e poder de customiza¸c˜ao dos encaminhamentos de pacotes realizados pela rede, de forma a atender `

a necessidade de equilibrar o consumo energ´etico dos equipamentos de interconex˜ao de rede isto ´e, dos dispositivos comutadores de pacotes, da redundˆancia exigida por uma topologia para centro de dados e o desempenho obtido em suas comunica¸c˜oes.

Com o intuito de alcan¸car um equil´ıbrio entre consumo de energia, redundˆancia m´ınima necess´aria de equipamentos e o desempenho da rede, a BEEP possui como meta enviar os tr´afegos de comunica¸c˜oes o mais r´apido poss´ıvel, utilizando-se da maior quantidade poss´ıvel de caminhos distintos existentes entre a origem o destino (atrav´es da utiliza¸c˜ao do MPTCP - MultiPath TCP ), a fim de que os switches (suas interfaces) permane¸cam em estado ocioso na maior parte do tempo, a fim de que reduzam o seu consumo energ´etico.

Para realizar tal prop´osito, a BEEP utiliza trˆes componentes:

• Componente Fat-Tree Manager (FM): que tem como fun¸c˜ao administrar e controlar o tr´afego da rede, monitorar a utiliza¸c˜ao das interfaces dos switches da topologia a fim de deix´a-las, na maior parte do tempo poss´ıvel, em modo de espera ou desligadas, bem como a fun¸c˜ao de inicializar e acionar, quando necess´ario, os outros dois componentes da estrat´egia;

• Componente de Desativa¸c˜ao de SWitches (DSW): que tem como fun¸c˜ao desativar (desligar ou colocar em modo de espera) as interfaces dos switches da topologia (com base em sua ociosidade) e;

• Componente de Ativa¸c˜ao de SWitches (ASW): que tem como fun¸c˜ao ativar todas as interfaces de switches capazes de interligar, atrav´es de m´ultiplos caminhos (quando poss´ıvel), os hosts (origem e destino) que desejam se comunicar.

Estes componentes s˜ao explicados, com detalhes, no Cap´ıtulo 3.

1.1 OBJETIVOS

O principal objetivo deste trabalho foi desenvolver uma estrat´egia para redes de centros de dados, utilizando algumas inova¸c˜oes capazes prover o aumento do desempenho nas comunica¸c˜oes, al´em de possibilitar a redu¸c˜ao do consumo energ´etico nos equipamentos de comuta¸c˜ao, sem prejudicar a redundˆancia t´ıpica existente em topologias hier´arquicas, como a Fat-Tree. A virtualiza¸c˜ao de rede e a utiliza¸c˜ao de protocolos que permitem execu¸c˜ao atrav´es de m´ultiplos caminhos s˜ao exemplos deste quesito.

(28)

4 INTRODUC¸ ˜AO

Como objetivos espec´ıficos, tem-se:

1. Compreender o estado atual em que operam os centros de dados modernos no que tange a seus padr˜oes de tr´afego bem como `as suas limita¸c˜oes e desafios quanto ao consumo energ´etico;

2. Conhecer e testar ferramentas que possam contribuir para melhoria de rendimento nas comunica¸c˜oes, eficiˆencia energ´etica e redundˆancia em centros de dados;

3. Propor e implementar uma heur´ıstica capaz de prover eficiˆencia energ´etica para os equipamentos de interconex˜ao de tais redes (switches e roteadores), operando sobre o Multipath TCP (MPTCP) e o OpenFlow ;

4. Criar um ambiente/cen´ario experimental no qual seja poss´ıvel validar a implementa¸c˜ao proposta com o intuito de prover uma melhor utiliza¸c˜ao da energia nos ambientes computacionais.

1.2 METODOLOGIA

O passo inicial para a constru¸c˜ao deste trabalho foi a realiza¸c˜ao de uma revis˜ao sistem´atica sobre redes de centro de dados e eficiˆencia energ´etica. Atrav´es deste levantamento do estado da arte, foram verificados as ferramentas e solu¸c˜oes que pudessem contribuir para o cumprimento dos objetivos desta obra.

As etapas efetuadas, de forma interdependente, para a confec¸c˜ao deste trabalho foram: • Na etapa 1 foram verificadas as limita¸c˜oes e desafios existentes no

contexto da eficiˆencia energ´etica em redes de centro de dados. Fator que norteou os objetivos deste trabalho;

• Na etapa 2 foram verificadas as ferramentas e solu¸c˜oes que poderiam ser aplicadas `a esta pesquisa, capazes de inovar e melhorar a forma de propor novas solu¸c˜oes, al´em de facilitar sua constru¸c˜ao. Em outras palavras, utilizar ferramentas com o melhor custo/benef´ıcio para a necessidade estudada;

• Na etapa 3 a estrat´egia BEEP foi implementada e configurada. Ao t´ermino desta etapa, foi criado um ambiente composto de tecnologias capazes de contribuir com a estrat´egia proposta. Ademais, foram definidas e configuradas m´etricas capazes de mensurar o potencial da estrat´egia;

• Na etapa 4, foi realizada uma an´alise experimental da estrat´egia. Foram emulados cen´arios de utiliza¸c˜ao de um centro de dados baseados na topologia Fat-Tree, nos quais foram realizados experimentos capazes de representar o comportamento o mais pr´oximo poss´ıvel da realidade destas infraestruturas. Em seguida foram coletados os dados impostos pelas m´etricas da BEEP. Ao t´ermino desta etapa, foi realizado um

(29)

1.3 ORGANIZAC¸ ˜AO 5

estudo anal´ıtico, com base na estat´ıstica descritiva, capaz de mensurar e avaliar o potencial da estrat´egia;

• Por fim, na etapa 5, foram realizados comparativos da estrat´egia BEEP com algumas solu¸c˜oes j´a existentes na literatura, fruto de pesquisas na ´

area de propostas correlatas a BEEP para as redes de centro de dados.

1.3 ORGANIZAC¸ ˜AO

A presente disserta¸c˜ao est´a organizada da seguinte forma:

• No Cap´ıtulo 2 s˜ao apresentados os fundamentos b´asicos para o entendimento do problema, que perpassa pelo levantamento bibliogr´afico quanto `as redes de centro de dados, as arquiteturas utilizadas em um centro de dados, eficiˆencia energ´etica em centro de dados e propostas para eficiˆencia energ´etica em elementos de centro de dados;

• No Cap´ıtulo 3 ´e apresentado a estrat´egia BEEP e cada um dos componentes que a integram: o Fat-Tree Manager, o DSW e o ASW; • No Cap´ıtulo 4 ´e apresentado o ambiente experimental constru´ıdo para

valida¸c˜ao e mensura¸c˜ao do potencial da estrat´egia, utilizando os recursos oferecidos pela SDN e OpenFlow ;

• No Cap´ıtulo 5 s˜ao apresentados os resultados obtidos atrav´es da an´alise experimental com a BEEP, al´em da discuss˜ao a respeito deles;

• Por fim, no Cap´ıtulo 6 s˜ao apresentadas as conclus˜oes acerca deste trabalho, bem como as limita¸c˜oes da estrat´egia, contribui¸c˜oes e propostas para trabalhos futuros.

Dado o exposto, neste Cap´ıtulo foram explanados alguns dos in´umeros desafios encontrados nos centros de dados atuais. Tamb´em foi poss´ıvel notar que nem sempre ´e poss´ıvel resolver estes problemas por completo, j´a que as vezes tentar resolver um destes problemas acaba gerando um outro problema a ser solucionado. No Cap´ıtulo seguinte ser´a mostrado como s˜ao concebidas as arquiteturas de um centro de dados, como seu consumo ´e distribu´ıdo, bem como algumas solu¸c˜oes utilizadas para a melhoria destas infraestruturas.

(30)
(31)

Cap´ıtulo

2

Neste cap´ıtulo ´e apresentado um breve referencial te´orico acerca das Redes de Centro de Dados (DCNs), bem como ´e apresentado como ´e realizado a eficiˆencia energ´etica nestas infraestruturas e as propostas existentes para eficiˆencia energ´etica em elementos da DCN.

REDES DE CENTRO DE DADOS - DCN

Um centro de dados ´e uma instala¸c˜ao criada para centralizar e hospedar recursos de computa¸c˜ao, utilizando a infraestrutura de comunica¸c˜ao para armazenamento de dados, aplica¸c˜oes e hospedagem (SHUJA et al., 2012).

A era atual marca o in´ıcio da computa¸c˜ao Exascale (HPE, 2008). Os centros de dados Exascale s˜ao projetados para operar com um poder de computacional de 1.018 opera¸c˜oes de ponto flutuante (flops) por segundo. Consequentemente, o n´umero de servidores hospedados em um centro de dados vem crescendo exponencialmente, aumentando, assim, o papel das redes de centro de dados, do inglˆes Data Center Network (DCN), respons´avel por conectar centenas de milhares de servidores.

Com este aumento crescente da demanda dos centros de dados, muitos dos componentes da TI que est˜ao integrados a eles, como servidores e dispositivos para armazenamento e interconex˜ao, tem sido objeto de estudo a fim de melhorar a forma como executam as suas tarefas.

Como os centros de dados atuais s˜ao limitados pelas redes de interliga¸c˜ao, ao inv´es do poder computacional (BERGMAN, 2010), na qual um gargalo pode resultar na perda da escalabilidade, a DCN vem sendo considerada a espinha dorsal da comunica¸c˜ao em um centro de dados e, por este motivo, ´e uma de suas maiores preocupa¸c˜oes (BILAL et al., 2013). Este fator imp˜oe a DCN desafios cr´ıticos em termos de: i) escalabilidade, ii) tolerˆancia `a falhas, iii) eficiˆencia energ´etica, e iv) largura de banda (BILAL et al., 2013). Esta preocupa¸c˜ao tˆem motivado pesquisadores a buscarem solu¸c˜oes que auxiliem na resolu¸c˜ao destes problemas enfrentados pelas DCNs.

2.1 ARQUITETURAS UTILIZADAS EM REDES DE CENTRO DE DADOS Os in´umeros problemas obtidos em centros de dados convencionais impulsionaram os pesquisadores a projetar e propor diversas arquiteturas capazes de atender a necessidade encontrada em cada cen´ario espec´ıfico de utiliza¸c˜ao.

(32)

8 REDES DE CENTRO DE DADOS - DCN

Atualmente, as arquiteturas existentes para os centros de dados podem ser classificadas, principalmente, em duas classes:

• switch-centric: arquiteturas em que os switches e os equipamentos utilizados para comuta¸c˜ao e roteamento s˜ao os componentes dominantes da topologia; e

• server-centric: arquiteturas nas quais existem servidores com m´ultiplas interfaces de rede que s˜ao respons´aveis pelo roteamento de pacotes e decis˜oes de encaminhamento da topologia.

Nos centros de dados convencionais a arquitetura mais utilizada ´e a switch-centric (HAMMADI; MHAMDI, 2014). Alguns exemplos desta topologia incluem a Fat-Tree (AL-FARES; LOUKISSAS; VAHDAT, 2008), Portland (MYSORE et al., 2009), VL2 (GREENBERG et al., 2011), e Monsoon (GREENBERG et al., 2008).

Por outro lado, as arquiteturas server-centric tem atra´ıdo grande interesse de pesquisadores e muitos projetos j´a foram propostos como o BCube (GUO et al., 2009), DCell (GUO, 2012), FiConn (LI et al., 2009), dentre outros.

2.1.1 Centros de dados definidos por software

Nas ´ultimas d´ecadas, muitos trabalhos tˆem sido propostos com o intuito de virtualizar servidores e automatizar seu gerenciamento e provisionamento. Devido `a complexidade existente nas redes atuais, os pesquisadores tˆem tentado implementar nos servidores os mesmos recursos de virtualiza¸c˜ao e gerenciamento semelhantes aos existentes para armazenamento.

Atualmente, os centros de dados precisam de uma configura¸c˜ao de rede automatizada, capaz de permitir que switches e roteadores (tanto f´ısicos quanto virtuais rodando em m´aquinas virtuais dentro de hypervisors), sejam reconfigurados instantaneamente, reagindo `as condi¸c˜oes atuais da rede. Entretanto, como cada fabricante de switches e roteadores possuem suas pr´oprias ferramentas de gerenciamento, al´em de “proteger” suas ideias, ao administrador da rede cabe apenas utilizar aqueles recursos existentes nos mesmos, ainda que sejam limitados para sua necessidade (MORGAN, 2016).

Foi com o prop´osito de virtualizar a rede e seus equipamentos de intercomunica¸c˜ao, al´em de permitir uma maior flexibilidade nas tarefas realizadas pelos centros de dados que as Redes Definidas por Software (do inglˆes, Software-Defined Network - SDN) adentraram nestas estruturas.

Atrav´es do uso da SDN, o poder de controlar as tarefas l´ogicas realizadas em um centro de dados ficam a cargo dos administradores de redes, aos quais ´e poss´ıvel implementar, de diversas formas diferentes, virtualiza¸c˜ao e automatiza¸c˜ao da rede. Assim como h´a mais de uma maneira de virtualizar um servidores e automatizar o provisionamento e o gerenciamento de m´aquinas virtuais (KREUTZ et al., 2015).

(33)

2.1 ARQUITETURAS UTILIZADAS EM REDES DE CENTRO DE DADOS 9

Figura 2.1 Camadas da SDN. Adaptado de (KREUTZ et al., 2015).

• Plano de gerenciamento: Inclui os servi¸cos de software, como ferramentas baseadas em protocolos de gerenciamento de rede, como o SNMP, utilizado para monitorar e configurar remotamente a funcionalidade dos equipamentos;

• Plano de controle: Representa os protocolos usados para preencher as tabelas de encaminhamento dos elementos do plano de dados;

• Plano de dados: Corresponde aos dispositivos de rede, que s˜ao respons´aveis pelo encaminhamento de dados.

Nos dias atuais, o principal produto da SDN ´e o protocolo OpenFlow (MCKEOWN et al., 2008). Na Figura 2.2 ´e poss´ıvel visualizar a implementa¸c˜ao de um switch OpenFlow. Nela ´e poss´ıvel notar que o switch divide o switch em duas partes:

• Secure Channel: se refere ao plano de controle da SDN. Nele s˜ao inseridas todas as regras necess´arias para os encaminhamos de pacotes. Em outras palavras, ´e a parte inteligente do switch, na qual s˜ao inseridas e administradas as regras pelo controlador OpenFlow atrav´es de criptografia SSL;

• Flow Table: se refere `a tabela de fluxos de encaminhamentos. Ou seja, tem a fun¸c˜ao apenas de realizar os encaminhamentos solicitados pela camada Secure Channel, sem fazer tratamentos mais elaborados.

Este recurso trazido pela SDN e pelo protocolo OpenFlow permitem, aos administradores de redes, a cria¸c˜ao de regras dinˆamicas, capazes de atender `as mais complexas demandas de tr´afego. Por este motivo, o OpenFlow vem sendo muito utilizado em infraestruturas de centro de dados.

(34)

10 REDES DE CENTRO DE DADOS - DCN

Figura 2.2 Representa¸c˜ao de um switch OpenFlow (MCKEOWN et al., 2008).

2.1.2 Arquiteturas com m´ultiplos caminhos

Uma vez que as infraestruturas de centro de dados tem como obriga¸c˜ao atender a norma ANSI/TIA-9421, que define como os centro de dados devem ser constru´ıdos,

al´em de especificar as melhores pr´aticas para sua utiliza¸c˜ao, o uso de mecanismos que promovam redundˆancia de equipamentos e liga¸c˜oes ´e um fator indispens´avel. Logo, em uma estrutura que h´a redundˆancia de liga¸c˜oes entre hosts e equipamentos explorar este recurso ´e fundamental. Neste sentido, algumas pesquisas vˆem sendo criadas com o intuito de explorar estes m´ultiplos caminhos, como o Equal-Cost Multi-Path routing (ECMP), o DataCenter TCP (DCTCP), o MultiPath TCP (MPTCP), dentre outros.

O ECMP (HOPPS, 2000), ´e um algoritmo que realiza c´alculos m´etricos de roteamento a fim de calcular todos os saltos entre todos as liga¸c˜oes existentes na infraestrutura de rede. Desta maneira, o ECMP ´e capaz de explorar os v´arios caminhos existentes em uma infraestrutura de rede, fazendo com que o encaminhamento de pacotes para um pr´oximo salto tenha como origem v´arios “melhores caminhos” para um ´unico destino. Uma outra vantagem do ECMP, ´e que ele pode ser usado, em conjunto, com a maioria dos protocolos de roteamento existentes, o que possibilita ao administrador a cria¸c˜ao uma infraestrutura h´ıbrida capaz de atender suas necessidades. Por este motivo, o ECMP ´e considerado o protocolo multi caminhos mais usado em centros de dados. Entretanto, j´a h´a alguns estudos que demonstram que o ECMP n˜ao utiliza corretamente a largura de banda dispon´ıvel em uma rede, o que motiva a cria¸c˜ao de outras estrat´egias que atenuem este problema (PAASCH; KHALILI; BONAVENTURE, 2013).

O DCTCP (ALIZADEH et al., 2010) ´e um um aprimoramento do algoritmo de controle de congestionamento TCP para redes de centro de dados. Ele aproveita o Explicit Congestion Notification (ECN), um recurso que est´a cada vez mais dispon´ıvel em switches dos centros de dados modernos. O DCTCP extrai os bits de feedback do congestionamento e atrav´es dos r´otulos ECN ele consegue estimar a fra¸c˜ao de pacotes

(35)

2.1 ARQUITETURAS UTILIZADAS EM REDES DE CENTRO DE DADOS 11

rotulados. Este n´ıvel de controle permite ao DCTCP operar com ocupa¸c˜oes de buffer reduzidas, ao passo que consegue diminuir o tempo de envio de cada pacote trafegado.

J´a o MPTCP (BARR´E; PAASCH; BONAVENTURE, 2011), visa fazer uso simultˆaneo de m´ultiplos caminhos disjuntos (ou parcialmente disjuntos) atrav´es de uma rede. Entre os principais benef´ıcios desta recurso, podemos citar: i) o aumento da resiliˆencia da conectividade, uma vez que o tr´afego ´e encaminhado por m´ultiplos caminhos, o sistema continua a transmitir mesmo diante da falha de algum caminho (ou host ); e ii) o aumento da eficiˆencia da utiliza¸c˜ao de recursos, dado que o gargalo na rede ´e diminu´ıdo, aumentando assim a capacidade de tr´afego (largura de banda) dispon´ıvel na rede. Desta forma, o MPTCP permite a utiliza¸c˜ao de v´arios caminhos fim-a-fim, nos quais um ou ambos os hosts finais fornecem v´arios servi¸cos, provendo uma melhor utiliza¸c˜ao dos recursos dispon´ıveis na rede. Al´em disso, o MPTCP possui a funcionalidade de ser roteado por portas em redes em que as aplica¸c˜oes possuam v´arios caminhos, assim como o ECMP.

A Figura 2.3 mostra a principal diferen¸ca entre a arquitetura convencional do TCP e o MPTCP. Em um kernel com o MPTCP habilitado, o componente TCP ´e dividido em um componente MPTCP com v´arios subfluxos (na forma de conex˜oes convencionais TCP) para cada interface. Para que haja comunica¸c˜ao, o componente MPTCP recebe um fluxo de bytes da aplica¸c˜ao (o MPTCP utiliza uma API de soquete sem modifica¸c˜oes e semˆantica do TCP para que os aplicativos n˜ao precisem ser adaptados), e em seguida divide o fluxo de bytes em v´arios segmentos, que s˜ao entregues aos componentes de subfluxos TCP. O que diferencia o MPTCP das conex˜oes TPC convencionais ´e a inser¸c˜ao do MP CAPABLE no campo de op¸c˜oes (options) do pacote IP.

Figura 2.3 Fluxos TCP e MPTCP. Adaptado de (POL et al., 2012).

Al´em de dividir o tr´afego da rede em subfluxos TCP o componente MPTCP implementa outras fun¸c˜oes, sendo as mais destacadas:

• Gerenciamento de caminhos atrav´es da detec¸c˜ao e uso de v´arios caminhos para um destino. Essa fun¸c˜ao consulta o host (com MPTCP) que inicia o tr´afego de dados e verifica se ele oferece a capacidade de receber fluxos adicionais e caso positivo quantos subfluxos podem ser adicionados a esta conex˜ao;

• Escalonador de pacotes. Que tem como fun¸c˜ao dividir o fluxo de bytes recebidos da aplica¸c˜ao em v´arios segmentos e transmitir esses segmentos em um dos subfluxos

(36)

12 REDES DE CENTRO DE DADOS - DCN

dispon´ıveis. Estes segmentos s˜ao numerados, de modo que o receptor MPTCP possa colocar os segmentos na ordem correta e reconstruir o fluxo de bytes de origem; • Controle de congestionamento em todos os subfluxos. Esta fun¸c˜ao distribui a carga

sobre os subfluxos dispon´ıves. Quando um subfluxo fica congestionado, o tr´afego ´e movido para um subfluxo menos congestionado. Esta fun¸c˜ao tamb´em cuida das retransmiss˜oes de outros subfluxos quando esses vem a falhar.

Quando uma conex˜ao MPTCP ´e iniciada ´e utilizada a mesma sinaliza¸c˜ao para que uma conex˜ao TCP convencional usa, por´em os pacotes SYN, SYN/ACK e ACK carregam consigo a op¸c˜ao MP CAPABLE. Esta op¸c˜ao ´e vari´avel e serve para dois prop´ositos: i) verificar se o host remoto suporta Multipath TCP; e ii) permitir que os hosts troquem algumas informa¸c˜oes para autenticar o estabelecimento de subfluxos adicionais.

Na Figura 2.4 ´e mostrado como o MPTCP processa a comunica¸c˜ao entre dois hosts com duas interfaces de rede (FORD; RAICIU; HANDLEY, 2012). Vale salientar que a organiza¸c˜ao e a forma como a comunica¸c˜ao ´e apresentada na Figura 2.4 ´e apenas para melhorar a did´atica. O MPTCP pode ser executado em hosts com n-interfaces (tendo seu rendimento prejudicado quando operado em apenas uma interface por conta do gargalo gerado) e a comunica¸c˜ao entre elas pode realizada das mais diferentes combina¸c˜oes poss´ıveis.

Figura 2.4 Comunica¸c˜ao atrav´es do MPTCP. Baseada no Internet-Draft (FORD; RAICIU; HANDLEY, 2012).

Seguindo o exemplo da Figura 2.4, o MPTCP inicia sua comunica¸c˜ao semelhante a uma conex˜ao TCP convencional, com uma sequˆencia de SYN, SYN/ACK, e ACK. Como

(37)

2.2 EFICI ˆENCIA ENERG ´ETICA EM REDES DE CENTRO DE DADOS 13

o host H1 fornece o MPTCP, ele adiciona a op¸c˜ao MP CAPABLE ao pacote SYN enviado ao host H2. Este campo da op¸c˜ao al´em do MP CAPABLE tamb´em cont´em sua chave de autentica¸c˜ao, os parˆametros necess´arios para a cria¸c˜ao de subfluxos, al´em de dados adicionais para indicar se ser˜ao necess´arias somas de verifica¸c˜ao e, caso haja, qual o algoritmo de criptografia a ser usado. Uma chave de autentica¸c˜ao de 64 bits ´e utilizada para autenticar os futuros subfluxos adicionais para esta conex˜ao MPTCP. Neste caso, como o host H2 fornece o MPTCP, ele responde ao host H1 com um pacote SYN/ACK com a op¸c˜ao MP CAPABLE, al´em de sua chave de autentica¸c˜ao e as flags. Se o host H2 n˜ao possu´ısse o MPTCP, ele n˜ao entenderia a op¸c˜ao MP CAPABLE e responderia com um SYN/ACK (sem o MP CAPABLE), ent˜ao o host H1 continuaria o processamento e realizaria uma conex˜ao TCP convencional (sem o MPTCP). Como neste exemplo o host H2 possui o MPTCP, o host H1 ir´a responder com um ACK com a op¸c˜ao MP CAPABLE, al´em das chaves de autentica¸c˜ao do host emissor e do host receptor e suas flags. Isso completa a configura¸c˜ao inicial da conex˜ao MPTCP.

J´a as conex˜oes de subfluxos adicionais podem ser iniciadas por qualquer um dos lados, mas normalmente eles s˜ao iniciadas pelo host que fez a configura¸c˜ao da conex˜ao inicial. Assim como na conex˜ao inicial do MPTCP, os subfluxos adicionais s˜ao configurados de forma similar `a configura¸c˜ao de uma conex˜ao TCP convencional com a troca de pacotes SYN, SYN/ACK e ACK, mas no caso de subfluxos estes pacotes contˆem a op¸c˜ao MP JOIN - que tem como fun¸c˜ao identificar a conex˜ao a ser unida pelo novo subfluxo.

A op¸c˜ao MP JOIN em pacotes com a flag SYN tamb´em inclui 4 bits de flags, 3 dos quais s˜ao atualmente reservados e deve ser ajustado para zero pelo remetente. Uma outra fun¸c˜ao do MP JOIN ´e sinalizar se o subfluxo a ser criado ser´a utilizado como um caminho de backup, em caso de falha de algum outro caminhos, ou usado imediante sem a op¸c˜ao de backup.

No exemplo da Figura 2.4, a configura¸c˜ao da conex˜ao do subfluxo adicional ´e iniciada quando o host H1 envia para o host H2 um pacote SYN com a op¸c˜ao MP JOIN, um token, um n´umero aleat´orio (nonce), uma identifica¸c˜ao de endere¸co e as flags. O token ´e um hash criptografado (SHA-1) contendo a chave do host H1 (os 32 bits mais significativos). Este hash pode ser utilizado pelo host H2 para identificar a conex˜ao. O n´umero aleat´orio (de uso ´unico) ´e usado para evitar ataques de repeti¸c˜ao do m´etodo de autentica¸c˜ao. O ID identifica o endere¸co atribu´ıdo a interface do host emissor (neste caso, a interface eth1 do host H1). A identifica¸c˜ao de endere¸co permite a remo¸c˜ao de endere¸co sem a necessidade de saber qual ´e o endere¸co de origem no receptor, permitindo assim a remo¸c˜ao de endere¸co atrav´es de NAT (do inglˆes, Network Address Translator ). As flags podem ser utilizadas pelo host de origem para informar a outros hosts para utilizar um dado subfluxo imediatamente ou us´a-lo como redundˆancia caso os outros caminhos falhem.

2.2 EFICIˆENCIA ENERG´ETICA EM REDES DE CENTRO DE DADOS

Segundo (BELOGLAZOV et al., 2011) o consumo energ´etico de um centro de dados pode ser classificado em duas partes:

(38)

14 REDES DE CENTRO DE DADOS - DCN

equipamentos para interconex˜ao de redes, dispositivos de armazenamento, dentre outros, e;

2. o consumo de energia dos equipamentos que mantˆem sua infraestrutura f´ısica: sistemas de refrigera¸c˜ao e de reserva de energia).

A quantidade de energia consumida por estes dois subcomponentes depende da fun¸c˜ao do centro de dados, bem como da eficiˆencia dos seus equipamentos. Por exemplo, de acordo com (BUYYA; BELOGLAZOV; ABAWAJY, 2010) o maior consumo de energia em um centro de dados t´ıpico ´e a infraestrutura de refrigera¸c˜ao, que representa 50% do total gasto com energia pelo centro de dados (HEDDEGHEM et al., 2014), enquanto os servidores e dispositivos de armazenamento ocupam o segundo lugar na hierarquia do consumo de energia, representando um total de aproximadamente 26%.

A abordagem gen´erica para gerenciar o consumo de energia de um centro de dados consiste em quatro etapas principais:

• Extra¸c˜ao de caracter´ısticas: a fim de reduzir o consumo de energia de um centro de dados, faz-se necess´ario medir o consumo energ´etico de seus componentes (BROWN; REAMS, 2010), e identificar onde a maior parte da energia ´e consumida;

• Constru¸c˜ao do modelo: as caracter´ısticas coletadas s˜ao selecionadas e usadas para construir um modelo de consumo de energia utilizando t´ecnicas de an´alise, tais como regress˜ao, aprendizagem de m´aquina, dentre outras. Um dos principais problemas enfrentados nesta etapa ´e que certos parˆametros importantes do sistema, como o consumo de energia de um componente em particular n˜ao pode ser medidos de forma direta. Al´em disso, os m´etodos de an´alise cl´assicos podem n˜ao produzir resultados precisos em tais situa¸c˜oes e as t´ecnicas de aprendizado de m´aquina podem obter resultados melhores. O resultado desta etapa ´e um modelo de potˆencia do centro de dados; • Valida¸c˜ao do modelo: em seguida, o modelo deve ser validado atrav´es

de uma an´alise experimental com o intuito de verificar se o mesmo atende aos fins previstos (HAMMADI; MHAMDI, 2014);

• Uso do modelo: finalmente, o modelo identificado pode ser usado como a base para predizer o componente ou o consumo de energia do sistema utilizado. Tais previs˜oes podem, ent˜ao, ser usadas para melhorar a eficiˆencia energ´etica do centro de dados, por exemplo, incorporando o modelo em t´ecnicas tais como a redu¸c˜ao de temperatura ou a programa¸c˜ao do consumo de energia pelos equipamentos (BELLOSA, 2000), escalonamento da frequˆencia de tens˜ao dinˆamica (Dynamic Voltage and Frequency Scaling - DVFS) (JING et al., 2013), recursos de virtualiza¸c˜ao (LIU et al., 2011), melhoria dos algoritmos utilizados pelas aplica¸c˜oes (BELOGLAZOV; BUYYA, 2010), a mudan¸ca para estado de baixa potˆencia (do inglˆes,

(39)

2.3 PROPOSTAS PARA EFICI ˆENCIA ENERG ´ETICA EM ELEMENTOS DA DCN 15

switching to low-power states) (FELLER et al., 2012), o nivelamento do consumo (do inglˆes, Power Capping) (LEFURGY; WANG; WARE, 2008), ou desligar completamente servidores n˜ao utilizados na topologia (LIN et al., 2013), dentre outros, com o intuito de tornar o consumo de energia de um centro de dados mais eficiente. No entanto, ´

e poss´ıvel notar que possuir um modelo para redu¸c˜ao do consumo de energia nem sempre significa que o consumo ser´a previsto com antecedˆencia, j´a que o volume de dados trafegados s˜ao alterados de forma dinˆamica e imprevis´ıvel.

Entretanto, o principal desafio t´ecnico encontrado pelos esquemas de economia de energia ´e um tradeoff existente entre a redu¸c˜ao do consumo de energia e a degrada¸c˜ao do desempenho da rede (DAYARATHNA; WEN; FAN, 2016). Intuitivamente, objetivando economizar energia, os administradores de rede poderiam prover menos recursos de equipamentos de comuta¸c˜ao ou servidores, por´em este fator diminuiria a capacidade dos servi¸cos de rede, assim como degradaria seu desempenho e redundˆancia. Por conseguinte, encontrar um equil´ıbrio entre redu¸c˜ao de consumo energ´etico, desempenho e redundˆancia tem se tornado um desafio para projetistas de esquemas de redu¸c˜ao do consumo de energia para centros de dados.

2.3 PROPOSTAS PARA EFICIˆENCIA ENERG´ETICA EM ELEMENTOS DA DCN A ideia de reduzir os consumos de energia dos elementos de rede na Internet foi inicialmente proposto em 2003, com a sugest˜ao de explorar a possibilidade de colocar alguns componentes em estado de espera durante algum per´ıodo de tempo (GUPTA; SINGH, 2003). Nos anos seguintes, muitas pesquisas sobre esse tema foram propostas e desde ent˜ao vem sendo amplamente pesquisadas (BOLLA et al., 2011; ZHANG et al., 2010; BIANZINO et al., 2012). No entanto, a maioria dos esquemas propostos visam a economia de energia em elementos de redes gen´ericos, com apenas alguns deles no ˆ

ambito de elementos de redes DCN. Portanto, nesta se¸c˜ao ser˜ao expostos os esquemas para economia de energia que foram especificamente propostas no interesse das DCN’s e que possuem correla¸c˜ao direta com a estrat´egia BEEP.

(MAHADEVAN et al., 2009b), compararam o consumo de energia de v´arios switches e roteadores em diferentes cen´arios de tr´afego. Eles obtiveram a conclus˜ao de que os seus consumos de energia s˜ao determinados principalmente por dois fatores: i) o quantidade de portas ativas em cada equipamento e ii) a largura de banda configurada para cada porta. Em suas conclus˜oes tamb´em foi diagnosticado que as cargas de tr´afego reais nas interfaces de rede n˜ao possuem impacto significativo no consumo de energia. Estas conclus˜oes s˜ao consideradas de suma importˆancia, pois elas se tornaram a base para um estudo mais aprofundado sobre os regimes de economia de energia de elementos de redes DCN como visto em (MAHADEVAN et al., 2009a) e (MAHADEVAN; BANERJEE; SHARMA, 2010).

Em (MAHADEVAN; BANERJEE; SHARMA, 2010), foi realizado um estudo com base em medi¸c˜oes em uma DCN operacional com 90 switches ativos. As configura¸c˜oes e informa¸c˜oes de tr´afego de cada switch foram configuradas a partir da Management

(40)

16 REDES DE CENTRO DE DADOS - DCN

Information Base (MIB) do Simple Network Management Protocol (SNMP), e seu consumo de energia foi implementando com o modelo obtido a partir de (MAHADEVAN et al., 2009b). Com base nos resultados emp´ıricos publicados, foi sugerido que a implementa¸c˜ao de algumas opera¸c˜oes consideradas simples poderiam reduzir o consumo de energia nos switches em at´e 36%. Tais opera¸c˜oes incluem desligar portas n˜ao utilizadas, adaptar a velocidade m´axima configurada nas portas, e consolidar as portas necess´arias para comunica¸c˜ao em uma quantidade menor de switches. No entanto, o estudo n˜ao considerou restri¸c˜oes de desempenho, como por exemplo, a velocidade do link enquanto as a¸c˜oes para economizar energia s˜ao inseridas. Al´em disso, como as estrat´egias propostas foram baseadas em dados de rastreamento de tr´afego hist´oricas, faltou um esquema capaz de prever a carga de trabalho real.

Em (MAHADEVAN et al., 2009a), foram propostos trˆes esquemas para economizar energia:

• Adapta¸c˜ao de Estados dos Links, Link State Adptation (LSA), que adapta a velocidade m´axima, de cada link, de acordo com sua carga real;

• Consolida¸c˜ao de Tr´afego de Rede, Network Traffic Consolidation (NTC), que ´e uma abordagem de engenharia de tr´afego que agrupa todo o tr´afego de rede para uma quantidade menor de switches e links, enquanto switches e links n˜ao utilizados podem ser desativados e; • Consolida¸c˜ao de Carga do Servidor, Server Load Consolidation (SLC),

que consolida as cargas de trabalho na menor quantidade poss´ıvel de servidores com o prop´osito de diminuir a quantidade de switches e interfaces utilizadas.

Tamb´em foi aplicado uma restri¸c˜ao no desempenho em cada esquema para estabelecer mais trˆes servi¸cos baseados em n´ıveis, level-aware (SL- aware). O objetivo principal destes seis esquemas ´e usar o menor n´umero de switches e interfaces para encaminhar o tr´afego na rede. Al´em disso, como alguns elementos de rede est˜ao desativados para economizar energia, a disponibilidade da rede ser˜ao inevitavelmente reduzida. Esse trade-off foi investigado sob os seis regimes, em um trace real com tr´afego Web, e observou-se que o SLC alcan¸cou uma economia de energia m´axima de 75%. Em contraste, os trˆes esquemas SL-aware alcan¸caram uma disponibilidade muito maior da rede, enquanto que a economia de energia gerada eram muito piores que o SLC.

Com objetivo semelhante, (SHANG; LI; XU, 2010) propuseram um modelo com o objetivo de minimizar a quantidade de switches ativos em uma DCN sujeita a um determinado padr˜ao de tr´afego e restri¸c˜ao de desempenho. O throughput da rede foi utilizado como m´etrica de desempenho. No modelo, os fluxos de tr´afegos foram ajustados para serem indivis´ıveis com a inten¸c˜ao de evitar o desordenamento de pacotes. O modelo foi provado ser NP-hard e uma heur´ıstica foi proposta, da qual os resultados da economia de energia foram promissores. No entanto, por se tratar de um esquema offline implementado em um modelo NP-hard, ele possui uma escalabilidade ineficiente al´em de uma alta complexidade, motivo pelo qual tem limitado a sua viabilidade em redes de centros de dados em grande escala com milhares de switches.

(41)

2.3 PROPOSTAS PARA EFICI ˆENCIA ENERG ´ETICA EM ELEMENTOS DA DCN 17

(SI; TAHERI; ZOMAYA, 2012) propuseram um esquema distribu´ıdo para redu¸c˜ao do consumo energ´etico chamado “eAware”, que atua examinando os tamanhos e taxas de ocupa¸c˜ao das filas e a utiliza¸c˜ao de portas dos switches. Com base nestes elementos, ele pode colocar alguns equipamentos em modo de espera para que seja economizado energia. A ideia principal do “eAware” ´e que, se um comprimento de fila ou a taxa de ocupa¸c˜ao de uma porta ultrapasse um certo limite, outras portas dever˜ao ser ativadas para diminuir o tamanho das filas; e se uma porta possui a fila com tamanho zero e a sua utiliza¸c˜ao baixa, ela ser´a desativada; se todas as portas de um switch estiver em modo de espera, o switch tamb´em ser´a desativado. Os resultados das simula¸c˜oes mostram que o “eAware” pode economizar na ordem de 30% a 50% de energia no centro de dados.

(BOTERO et al., 2012) apresentaram um problema com uma rede virtual dotada de um reconhecimento de consumo energ´etico na qual o objetivo ´e atribuir um grupo de redes virtuais a um grupo reduzido de equipamentos de rede, em seguida os switches n˜ao utilizados, bem como suas portas s˜ao desligados. Os autores propuseram o Mixed Integer Program (MIP) para resolver este problema. Resultados obtidos atrav´es de simula¸c˜oes demonstraram que quando o o tr´afego da rede ´e baixo, o esquema proposto consegue diminuir o consumo de energia em at´e 35%.

(XU et al., 2013) prop˜oem um algoritmo de roteamento, chamado de throughput-guaranteed power-aware routing, capaz de garantir o throughput das conex˜oes. A ideia principal da proposta ´e usar o m´ınimo poss´ıvel de energia da rede para fornecer o servi¸co de roteamento, enquanto ele define o throughput da rede. O algoritmo de roteamento proposto, tomando como base algumas topologias, calcula as rotas para os fluxos de tr´afego e o throughput da rede (chamada de roteamento b´asico) al´em da taxa b´asica. Em seguida, ele remove os switches e links envolvidos no roteamento b´asico, de acordo com as cargas de trabalho dos switches at´e que o throughput da rede atinja o limite inferior. Finalmente os links e switches que n˜ao est˜ao envolvidos na topologia final s˜ao colocados em modo de espera. Resultados obtidos por simula¸c˜oes mostram que o algoritmo de roteamento proposto pode economizar energia em centros de dados sob cargas de rede baixa.

Por fim, nas pr´oximas Se¸c˜oes ser˜ao apresentados os trabalhos mais relevantes relacionados ao ajuste dinˆamico dos elementos ativos com gerenciamento de energia: o ElasticTree, o PCube e o HERO.

2.3.1 ElasticTree

A ElasticTree (HELLER; SEETHARAMAN; MAHADEVAN, 2006), representada na Figura 2.5, ´e uma topologia de centro de dados baseada na Fat-Tree, que consiste de um otimizador de rede que monitora continuamente as condi¸c˜oes de tr´afego dentro do centro de dados.

A ElasticTree consiste em trˆes m´odulos l´ogicos: otimizador, roteamento e controle de energia (como mostrado na Figura 2.6). O papel do otimizador ´e encontrar o subconjunto m´ınimo da rede, a fim de satisfazer as demandas de tr´afego (mantendo um desempenho aceit´avel). Uma vez que o otimizador analisa a matriz de tr´afego, ele seleciona o conjunto m´ınimo de equipamentos necess´arios para satisfazer as demandas, em seguida, ele passa

(42)

18 REDES DE CENTRO DE DADOS - DCN

Figura 2.5 Topologia ElasticTree (HELLER; SEETHARAMAN; MAHADEVAN, 2006)

as informa¸c˜oes para os m´odulos de potˆencia e de roteamento, que por sua vez, controlam o ativa¸c˜ao e desativa¸c˜ao de links, assim como os caminhos aos quais devem ser seguidos pelos fluxos.

Figura 2.6 O diagrama executado pelos m´odulos da ElasticTree (HELLER; SEETHARAMAN; MAHADEVAN, 2006)

O objetivo de otimiza¸c˜ao realizada pela ElasticTree ´e minimizar a quantidade de equipamentos ligados, enquanto atende a demanda e mantˆem as restri¸c˜oes de conserva¸c˜ao de fluxos. A economia de energia pode ser calculada ao considerar a rela¸c˜ao entre a energia consumida pela ElasticTree e a energia consumida pela Fat-Tree. Nos experimentos,

(43)

2.3 PROPOSTAS PARA EFICI ˆENCIA ENERG ´ETICA EM ELEMENTOS DA DCN 19

Figura 2.7 Modelo do modelo experimento criado pela ElasticTree para uma topologia Fat-Tree k = 4 (HELLER; SEETHARAMAN; MAHADEVAN, 2006). Cada NetFPGA emulam 4 servidores com conex˜oes de 1GB.

quatro NetFPGA representando 16 servidores foram usadas para gerar tr´afego, e um monitor de latˆencia foi utilizado para coletar as perdas e atrasos ocorridas com os pacotes (como mostrado na Figura 2.7).

V´arios m´etodos s˜ao propostos por seus autores com o intuito de decidir qual subconjunto de links e switches devem ser usados em cada comunica¸c˜ao. Estes m´etodos podem ser “gananciosos” (como o greedy bin-packer ), uma heur´ıstica chamada de “topologia consciente”, ou uma tentativa de prever o tr´afego da rede. Foi mostrado que estes m´etodos, podem alcan¸car a economia de energia entre 25% a 40%.

2.3.2 PCube

Al´em de trabalhos baseados em topologias centradas em switches, isto ´e, switch-centric, os pesquisadores tamb´em investigaram como melhorar a eficiˆencia de energia, em topologias server-centric, atrav´es do ajuste dinˆamico da estrutura da rede com base nas demandas de tr´afego. A inten¸c˜ao destes estudos era mensurar se era poss´ıvel obter a mesma economia de energia concentrando a comuta¸c˜ao de pacotes nos servidores.

Centro de dados modulares, com topologias centradas em servidores, como a BCube, pode oferecer alta largura de banda com velocidade suficiente para atender demandas de alto desempenho para aplica¸c˜oes um-para-um, um-para-todos e todos-para-todos.

A PCube (HUANG et al., 2011), como mostrado na Figura 2.8, ´e representada como PCube (n, k, q), no qual n ´e o n´umero de portas dos switches, k ´e a quantidade de n´ıveis da topologia e q ´e o n´umero de portas em cada servidor.

PCube ´e um projeto que se apoia na computa¸c˜ao adaptativa com a capacidade de desligar links, dependendo dos padr˜oes de tr´afego, dentro de uma rede de centro de dados. Quando a demanda de tr´afego est´a baixa, a PCube reduz a quantidade de links

(44)

20 REDES DE CENTRO DE DADOS - DCN

Figura 2.8 Estrat´egia PCube mostrando um exemplo das topologias: (a) PCube (2, 4, 4), (b) PCube (2, 4, 3) e (c) PCube (2, 4, 2). Figura adaptada de (HUANG et al., 2011).

na topologia. A Figura 2.8(a) demonstra um exemplo em que a topologia possui uma alta demanda de tr´afego. Na Figura 2.8(b), que representa a PCube (2, 4, 3), ´e mostrado que 25% dos switches est˜ao desligados para economizar 25% da energia consumida. Por´em, outra redu¸c˜ao pode ocorrer quando a demanda de tr´afego estiver ainda mais baixa, o que a faz desligar mais 8 switches, resultando em uma (2,4,2), como mostrado na Figura 2.8(b), contribuindo para uma economia de 50% na energia gasta pelos switches.

Na PCube, um servidor dedicado, agindo como o gestor de rede, ´e respons´avel por receber os pedidos de requisitos de largura de banda de outros servidores e, com base em suas decis˜oes, define a forma como a estrutura pode ser transformada a fim de atender aos seus objetivos. Quando h´a alguma altera¸c˜ao na topologia, a PCube calcula os novos caminhos de roteamento para a estrutura modificada e transmite a nova estrutura e as informa¸c˜oes de roteamento para todos os servidores. Quando a rede est´a sobrecarregada, o servidor gestor da rede permite, por alguns segundos a mais, que um dado switch desnecess´ario permane¸ca ativo at´e garantir que todos os servidores receberam as mudan¸cas na topologia e tomem suas decis˜oes.

A PCube, em rela¸c˜ao `a estrat´egia ElasticTree, citada na Se¸c˜ao anterior, embora atuem em topologias completamente distintas (server-centric e switch-centric, respectivamente) a solu¸c˜ao PCube (baseada na topologia BCube) proporciona distribui¸c˜ao de tr´afego do tipo um-para-todos e com respeito ao consumo de energia, a PCube pode economizar, em at´e 50%, a energia consumida pela ElasticTree servindo a mesma quantidade de servidores (HUANG et al., 2011).

2.3.3 HERO

O Hierarchical EneRgy Optimization (HERO) ´e um trabalho recente publicado por (ZHANG; ANSARI, 2012, 2015), que visa resolver o problema de otimiza¸c˜ao, de uma

(45)

2.3 PROPOSTAS PARA EFICI ˆENCIA ENERG ´ETICA EM ELEMENTOS DA DCN 21

forma hier´arquica, para alcan¸car resultados semelhantes `a economia de energia alcan¸cada em modelos n˜ao-hier´arquicos. Uma vez que as vari´aveis e restri¸c˜oes s˜ao entre 35% a 40% menores em infraestruturas hier´arquicas, o HERO consegue reduzir a complexidade de tempo gerada para a tomada de decis˜oes.

No HERO, a otimiza¸c˜ao de energia em redes de centros de dados ´e dividida em dois n´ıveis: em n´ıvel do n´ucleo e em n´ıvel do POD. Na otimiza¸c˜ao em n´ıvel do n´ucleo, os switches core, que servem de sa´ıda de tr´afego, e os switches de agrega¸c˜ao, que servem para levar o tr´afego para fora do POD, devem estar no modo ativo. Enquanto na otimiza¸c˜ao em n´ıvel do POD, permanecem ativos apenas os switches de agrega¸c˜ao. Estes modos de otimiza¸c˜ao est˜ao descritos na Figura 2.9.

Figura 2.9 Otimiza¸c˜oes realizadas pelo HERO: (a) a n´ıvel do POD, e (b) a n´ıvel do n´ucleo (ZHANG; ANSARI, 2015).

Para uma dada matriz de tr´afego, o problema da otimiza¸c˜ao da Constraint Multi-Commodity Flow (CMCF) ´e formulado para cada n´ıvel da topologia com a proposta de determinar quais os switches e links que devem ser desligados na rede, garantindo simultaneamente a conectividade e Quality of Service (QoS).

Heur´ısticas gulosas, com base em diferentes crit´erios para switches e links, tamb´em foram implementadas com o intuito de encontrar n´os e links que possam ser desligados e, portanto, alcan¸car uma economia de energia adicional.

Foram realizadas simula¸c˜oes para diferentes cen´arios de tr´afego e os resultados mostraram que o modelo hier´arquico pode conseguir resultados semelhantes `a economia de energia alcan¸cada com o modelo n˜ao-hier´arquico, com uma grande redu¸c˜ao na complexidade do algoritmo.

2.3.4 GreenCloud

A GreenCloud (LIU et al., 2009; KLIAZOVICH; BOUVRY; KHAN, 2012), ´e uma arquitetura desenvolvida com o prop´osito de mensurar e reduzir o consumo energ´etico de um Centro de Dados, garantir o desempenho (do ponto de vista do usu´ario) e, assim, contribuir para a constru¸c˜ao de um Centro de Dados “Verde”. Al´em de contribuir com os projetos GreenIT2 e ECO-CLOUD3.

2https://greenit.gforge.uni.lu/ 3https://ecocloud.gforge.uni.lu/

Referências

Documentos relacionados

Resposta: para traçar os efeitos de curto prazo e longo prazo de uma redução na demanda agregada real por moeda na taxa de câmbio, taxa de juros e nível de preços, é necessário

O artigo 2, intitulado “Tecnologias de Informação e Comunicação (TIC): Estar fora da família, estando dentro de casa”, foi resultado da realização de uma pesquisa de

• The definition of the concept of the project’s area of indirect influence should consider the area affected by changes in economic, social and environmental dynamics induced

45 Figure 18 - Study of the extract concentration in the phycobiliproteins extraction and purification using the mixture point composed of 10 wt% Tergitol 15-S-7 + 0.3

VII.2 - Na impossibilidade de se constituir CEP, a instituição ou o pesquisador responsável deverá submeter o projeto à apreciação do CEP de outra instituição,

I – formular e zelar pelo cumprimento das normas relativas à utilização humanitária de animais com finalidade de ensino e pesquisa científica;.. II –

procedimentos para o uso científico de animais, e dá outras providências. 1 o As atividades e projetos que envolvam a criação e utilização de animais de laboratório

No Capitulo 7, foi apresentada nossa proposta para o fornecimento dos servigos para tolerancia a faltas no ambiente operacional Seljuk-Amoeba. Como foi possivel observar durante