virtualização e cloud computing a optimização da ... · virtualização e cloud computing: a...

16
Virtualização e Cloud Computing: a optimização da alimentação, do arrefecimento e da gestão maximiza as vantagens Revisão 3 Por Suzanne Niles Patrick Donovan White Paper 118 O virtualização de TI, o motor que impulsiona o Cloud Computing , pode ter consequências significativas na infra-estrutura física do centro de dados (DCPI). As maiores densidades de potência frequentemente resultantes podem constituir um desafio para as capacidades de arrefecimento de um sistema existente. A redução global do consumo de energia que normalmente resulta da consolidação de servidores físicos poderá, na realidade, piorar a eficiência de consumo energético (PUE) do centro de dados. As cargas dinâmicas que variam em tempo e localização poderão aumentar o risco de períodos de inactividade se o estado da alimentação e refrigeração ao nível do bastidor não for compreendido e tomado em consideração. Finalmente, a natureza tolerante a falhas de um ambiente altamente virtualizado poderá levantar questões sobre o nível de redundância requerido na infra-estrutura física. Estes efeitos específicos da virtualização são debatidos, sendo apresentadas soluções ou métodos possíveis para os enfrentar. Sumário Executivo > Introdução 2 O aumento da alta densidade 2 A redução da carga de TI pode afectar o PUE 4 Cargas dinâmicas de TI 10 Requisitos de redundância reduzidos 12 Conclusão 14 Recursos 15 Anexo 16 Clique numa secção para aceder directamente Conteúdo by Schneider Electric. Os white papers da APC agora fazem parte da boblioteca de white papers da Schneider Electric, produzidos pelo Data Center Science Center [email protected]

Upload: lamkien

Post on 04-Aug-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

Virtualização e Cloud Computing: a optimização da alimentação, do arrefecimento e da gestão maximiza as vantagens

Revisão 3

Por Suzanne Niles Patrick Donovan

White Paper 118

O virtualização de TI, o motor que impulsiona o Cloud Computing , pode ter consequências significativas na infra-estrutura física do centro de dados (DCPI). As maiores densidades de potência frequentemente resultantes podem constituir um desafio para as capacidades de arrefecimento de um sistema existente. A redução global do consumo de energia que normalmente resulta da consolidação de servidores físicos poderá, na realidade, piorar a eficiência de consumo energético (PUE) do centro de dados. As cargas dinâmicas que variam em tempo e localização poderão aumentar o risco de períodos de inactividade se o estado da alimentação e refrigeração ao nível do bastidor não for compreendido e tomado em consideração. Finalmente, a natureza tolerante a falhas de um ambiente altamente virtualizado poderá levantar questões sobre o nível de redundância requerido na infra-estrutura física. Estes efeitos específicos da virtualização são debatidos, sendo apresentadas soluções ou métodos possíveis para os enfrentar.

Sumário Executivo > Introdução 2

O aumento da alta densidade 2

A redução da carga de TI pode afectar o PUE

4

Cargas dinâmicas de TI 10

Requisitos de redundância reduzidos

12

Conclusão 14

Recursos 15

Anexo 16

Clique numa secção para aceder directamente Conteúdo

by Schneider Electric. Os white papers da APC agora fazem parte da boblioteca de white papers da Schneider Electric, produzidos pelo Data Center Science Center [email protected]

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 2

Sem qualquer dúvida, a virtualização de TI - a abstracção de recursos de rede física, servidores e armazenamento - aumentou bastante a capacidade de utilização e dimensionamento da capacidade informática. Na realidade, a virtualização transformou-se no motor tecnológico subjacente ao próprio Cloud Computing. Apesar das vantagens deste modelo de fornecimento de tecnologias e serviços ser bem conhecido e compreendido, e de estarem a ser cada vez mais aproveitadas, os seus efeitos na infra-estrutura física do centro de dados (DCPI) são menos compreendidos. A finalidade desta aplicação é descrever estes efeitos, apresentando soluções ou métodos possíveis para os enfrentar. De uma maneira geral, estes efeitos não são novos e existem actualmente estratégias de sucesso para os enfrentar. Esta aplicação abrange quatro efeitos ou atributos da virtualização de TI.

1. O aumento da alta densidade – O aumento da densidade de potência resulta da virtualização, pelo menos em alguns bastidores. As áreas de alta densidade podem representar desafios de arrefecimento que, se não forem resolvidos, poderão ameaçar a fiabilidade global do centro de dados.

2. A redução da carga de TI pode afectar o PUE – Após a virtualização, a eficiência de consumo energético (PUE) tende a piorar. Isto ocorre independentemente do facto da consolidação de servidores físicos inicial originar uma redução global do consumo de energia. Se a infra-estrutura de alimentação e arrefecimento não estiver correctamente dimensionada à nova carga global inferior, a eficiência da infra-estrutura física medida como PUE irá piorar.

3. Cargas dinâmicas de TI – As cargas de TI virtualizadas, especialmente as existentes num centro de dados na nuvem, altamente virtualizado, podem variar no tempo e na localização. Para assegurar a disponibilidade num sistema deste tipo, é essencialmente que o estado da alimentação e do arrefecimento ao nível do bastidor sejam tomados em consideração antes que as alterações sejam efectuadas.

4. É possível reduzir os requisitos de redundância – Um centro de dados altamente virtualizado, concebido e operado com um elevado nível de tolerância a falhas de TI, poderá reduzir a necessidade de redundância na infra-estrutura física. Este efeito poderá ter um impacto significativamente positivo no planeamento e no investimento associado ao centro de dados.

Este white paper aborda estes efeitos no contexto de um ambiente altamente virtualizado típico de um centro de dados baseado na nuvem com requisitos de procura dinâmicos. A lista de white papers no final fornece informações gerais e detalhadas adicionais sobre estes tópicos no contexto global do centro de dados, virtualizado ou não. Apesar d a virtualização poder reduzir o consumo de corrente global da sala, os servidores virtualizados tendem a ser instalados e agrupados de modo que criam áreas localizadas de alta densidade que podem originar o surgimento de " hot spots. Este desafio de arrefecimento poderá constituir uma surpresa, devido à dramática diminuição do consumo de corrente possibilitada pelos elevados rácios de consolidação de servidores físicos de 10:1, 20:1 ou até mesmo superiores que podem ser realisticamente alcançados. Visto que um físico é carregado com uma quantidade cada vez maior de máquinas virtuais, a utilização da sua CPU irá aumentar. Apesar de esta relação não ser linear, o consumo de corrente desse física aumenta à medida que a utilização aumenta. A utilização típica da CPU de um servidor não virtualizado é cerca de 5%-10%. No entanto, este valor poderá ser igual ou superior a 50% num servidor virtualizado. A diferença no consumo de corrente entre a utilização de 5% e 50% da CPU corresponde a cerca de 20%, dependendo da máquina específica em questão. Além disso, as máquinas virtualizadas requerem frequentemente

Introdução

O aumento da alta densidade

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 3

mais recursos de processador e memória, o que poderá contribuir para aumentar o consumo de corrente relativamente ao de uma máquina não virtualizada. O agrupamento destes servidores virtualizados mais poderosos poderá originar densidades de potência significativamente superiores, que poderão causar problemas de arrefecimento. Além do aumento das densidades, a virtualização também permite mover, iniciar e parar dinamicamente as cargas de trabalho; isto cria cargas físicas que podem mudar ao longo do tempo e localização física. Este efeito de cargas dinâmicas é abordado posteriormente nesta aplicação. Métodos de arrefecimento de bastidores de alta densidade para impedir " hot spots" A existência de maiores densidades de potência ao nível do bastidor deverá encorajar os operadores dos centros de dados a examinarem a infra-estrutura de arrefecimento existente, para verem se ainda é possível arrefecer suficientemente a carga. Existem várias abordagens para o arrefecimento de bastidores de alta densidade. Este documento explica resumidamente duas das abordagens principais. O método provavelmente mais comum consiste simplesmente em "repartir" o equipamento de alta densidade pelo centro de dados, em vez de o agrupar. Com as cargas repartidas deste modo, nenhum bastidor isolado irá exceder a densidade de potência nominal e, consequentemente, o desempenho do arrefecimento é mais previsível. A vantagem principal desta estratégia é não requerer uma nova infra-estrutura de alimentação ou arrefecimento. No entanto, esta abordagem tem várias desvantagens sérias, incluindo o aumento de espaço ocupado, o aumento dos custos de cablagem, a possível redução da eficiência eléctrica relacionada com os percursos de ar não contidos e a percepção de que a existência de bastidores meio preenchidos constitui um desperdício. Apesar de tudo, esta abordagem simples poderá ser uma opção viável, especialmente... • Quando a densidade de potência média do centro de dados (kW/bastidor ou watts/cm2

de espaço livre) resultante é aproximadamente igual à existente antes da virtualização. (Assumindo que existia anteriormente uma capacidade de arrefecimento suficiente.)

• Quando os gestores têm controlo completo sobre a localização dos servidores físicos.

• Quando existem “U” disponíveis nos bastidores existentes para permitir esta repartição.

Uma abordagem mais eficiente poderá consistir em isolar o equipamento de maior densidade numa localização separada do equipamento de menor densidade. Esta compartimentação da alta densidade iria envolver a consolidação de todos os sistemas de alta densidade num único bastidor ou fila de bastidores. Em seguida, seria possível trazer equipamento de distribuição de ar frio (por exemplo, aparelhos de ar condicionado baseados em bastidores e filas) e/ou contenção de ar (por exemplo, contenção de corredor quente ou de corredor frio) para estes compartimentos de alta densidade isolados, para garantir que os mesmos possuem o arrefecimento necessário a qualquer momento. As vantagens incluem uma melhor utilização do espaço, uma maior eficiência e a maximização da densidade por bastidor. Além disso, esta abordagem é obviamente preferida por organizações que necessitam que o equipamento de alta densidade partilhe a localização. A Figura 1 ilustra o conceito de um compartimento de alta densidade.

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 4

As características básicas mais importantes de um compartimento de alta densidade incluem: • Percursos de ar curtos (quando os fluxos de ar não estão contidos), para misturar

a possibilidade de misturar ar insuflado e ar recirculado, bem como para minimizar a energia utilizada pelos ventiladores de velocidade variável.

• Ventiladores VFD (unidade de frequência variável) para suportarem as cargas dinâmicas que variam em tempo e localização.

• Orientação do bastidor e/ou da linha para facilitar a separação do fornecimento de ar frio do ar recirculado quente.

O isolamento do equipamento de alta densidade num compartimento separado com arrefecimento dedicado facilita a gestão, torna o desempenho do arrefecimento mais previsível e permite aumentar a eficiênciaeficiência energética. No mínimo, o compartimento de alta densidade é termicamente neutro para o resto da sala. No entanto, especialmente quando os fluxos de ar estão bem fechados, o compartimento poderá aumentar a capacidade de arrefecimento do resto do centro de dados. Para obter informações mais detalhadas sobre a utilização de compartimentos de alta densidade isolados e separados, consulte White Papero White Paper 134, Implementar compartimentos de alta densidade num centro de dados de baixa densidade. Para obter mais informações genéricas sobre todos os métodos de arrefecimento de equipamento de alta densidade, consulte a White Paper 46, Estratégias de arrefecimento para bastidores de alta densidade e servidores blade. Uma vantagem largamente divulgada da virtualização tem sido a redução dos custos energéticos derivados da consolidação de servidores físicos. Na realidade, esta redução de custos não é pequena. Considere um centro de dados de 1 MW com 1000 servidores físicos com um consumo individual de 250 W a um custo de 0,11 dólares por kilowatt/hr. Os custos energéticos anuais de operação apenas dos servidores rondariam os 240.000 dólares (250 W/1000 x 0,11 x 24 hr x 365 dias x 1000 servidores). Se virtualizarmos estes servidores com um rácio de consolidação conservador de 10:1, e cada servidor físico restante utilize 60% da CPU (em vez dos normais 5-10%), obteremos um custo energético total de cerca

Compartimento de altadensidade

A circulação de ar quente/frio está localizada dentro do compartimento

SAÍDA DE CALOR para o sistema de rejeição de calor do edifício

Sala de baixadensidade

• Uma “ilha” de alta densidade na sala

• Um “mini centro de dados” com o seu próprio arrefecimento

• Termicamente neutro para o resto da sala (pode mesmo auxiliar a sala se o compartimento tiver uma capacidade excessiva)

• A circulação de ar quente/frio está localizada dentro da zona através de percursos de ar curtos e/ou contenção física

Diagrama 1 O "compartimento" de alta densidade é uma opção para resolver os problemas associados ao equipamento de alta densidade num centro de dados virtualizado existente

Implementar compartimentos de alta densidade num centro de dados de baixa densidade

Link para a fonte White Paper 134

A redução da carga de TI pode afectar o PUE

Estratégias de arrefecimento para bastidores de alta densidade e servidores blade

Link para a fonte White Paper 46

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 5

Infr

astr

uctu

re

ITCálculo útil

Infra-estrutura física

Global

TIMUITO melhor

Um pouco melhor

Infr

a-es

trut

ura

físic

a

Eficiência

Watts deENTRADA

Watts de TI TI

Eficiência EficiênciaPior (PUE maior)

Grande possibilidade não aproveitada aqui

O PUE fica pior apenas com a virtualização

A eficiência global fica um pouco melhor com a virtualizaçãoNo entanto, ficará muito melhor se a infra-estrutura física (PUE) também for optimizadaA eficiência de TI fica muito melhor com a virtualizaçãoExiste sempre um grande ganho de eficiência aqui

(O assunto desta aplicação)

de 60.000 dólares (600 W/1000 x 0,11 x 24 hr x 365 dias x 100 servidores)1. Isto representa uma redução do consumo de energia de 76% para os servidores. Deste modo, não é de admirar que a virtualização seja encarada e promovida como uma tecnologia "verde" para o centro de dados. A capacidade de cálculo permanece inalterada ou é mesmo aumentada, enquanto que a utilização de energia regista uma quebra acentuada. Por este motivo, poderá parecer surpreendente que, num cenário tão "verde", a métrica mais frequentemente utilizada para a eficiência do centro de dados, o PUE, possa piorar após a ocorrência desta consolidação de servidores. Algumas pessoas poderão encarar este facto como uma lacuna da métrica. Por outras palavras, uma métrica de eficiência tem de ser deficiente, não se destinando a reflectir a vantagem ambiental óbvia de uma utilização de energia significativamente inferior. No entanto, o leitor deverá lembrar-se de que o PUE é uma métrica concebida apenas para medir a eficiência da infra-estrutura física do centro de dados (ou seja, alimentação e arrefecimento), e não a eficiência da capacidade de cálculo de TI. O PUE não deve ser utilizado nem encarado como um indicador directo de quão "verde" é um centro de dados. A sua finalidade é mostrar a eficiência dos sistemas de alimentação e arrefecimento relativamente a uma carga de TI específica. A Figura 2 ilustra o efeito da virtualização na eficiência do centro de dados. Marca da virtualização na curva de eficiência da infra-estrutura Se a infra-estrutura de alimentação e arrefecimento for mantida tal como estava antes da implementação da virtualização, o PUE irá piorar após a consolidação de servidores físicos ter sido efectuada. As "perdas fixas" são inerentes à capacidade de alimentação e arrefecimento não utilizada. Basicamente, trata-se de energia que é consumida pelos sistemas de alimentação e arrefecimento independentemente da carga de TI. Quanto maior for a capacidade de alimentação e arrefecimento, maiores serão as perdas fixas. À medida que a carga de TI diminui (por exemplo, como consequência da consolidação), estas perdas fixas assumem uma proporção maior da utilização total de energia do centro de dados. Isto significa que o PUE irá piorar. Isto significa também que o PUE é sempre melhor com cargas de TI mais elevadas e pior com cargas mais reduzidas. A Figura 3 mostra uma curva típica do PUE que ilustra a relação entre a eficiência e a carga de TI.

1 O mesmo (manter designação em inglês )físico com uma utilização de 60% da CPU implica um

consumo de corrente de cerca de 300 W. Os 300 W adicionais, para totalizar 600 W são atribuídos ao aumento dos recursos de processador e memória requeridos para o processamento adequado das cargas virtualizadas. Note que o consumo energético relacionado com o armazenamento NAS ou SAN poderá aumentar, mas a redução global do consumo energético de TI continua a ser significativa.

Diagrama 2 Efeito típico da virtualização na eficiência do centro de dados, mostrando o contexto do PUE na eficiência global do centro de dados

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 6

Diagrama 3 Curva típica da eficiência da infra-estrutura do centro de dados

Diagrama 4 A consolidação reduz a carga, fazendo subir o PUE na curva

devido a “perdas fixas” inerentes na capacidade de alimentação/arrefecimento não utilizada

PUE

Pior

Melhor

A eficiência diminui significativamente com cargas baixas

Carga de TI% da capacidade de alimentação do centro de dados

10% 20% 40% 80% 100%

Sem carga Carga total

2

3

4

5

60%

Cada centro de dados terá uma curva de PUE superior ou inferior, consoante a eficiência de cada um dos seus dispositivos e a eficiência da configuração do sistema, mas a curva terá sempre a mesma forma. A Figura 4 mostra o efeito da consolidação no PUE.

PUE

Pior

Melhor

Carga de TI% da capacidade de alimentação do centro de dados

10% 20% 40% 80% 100%

Sem carga Carga tota

2

3

4

5

2.002.25

60%

ANTES da virtualizaçãoAPÓS a virtualização

NOTA: Estes valores de PUE são baseados num centro de dados tradicional com arrefecimento de chão falso, unidades de arrefecimento de velocidade constante de perímetro e UPSs não modulares.

Para melhorar o PUE pós-virtualização, a curva de eficiência da infra-estrutura do centro de dados tem de ser melhorada (reduzida) através da optimização dos sistemas de alimentação e arrefecimento, de modo a reduzir o desperdício associado ao sobredimensionamento e a alinhar melhor a capacidade com a carga nova e inferior (Figura 5). Para além de melhorar a eficiência, a optimização da alimentação e do arrefecimento irá influenciar directamente os custos energéticos através da redução da energia consumida pela capacidade de alimentação e arrefecimento não utilizada. O estudo de cado utilizado para quantificar estes PUEs estão localizado no Anexo desta aplicação.

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 7

Diagrama 5 A optimização da alimentação e do arrefecimento melhora a curva de eficiência pós-virtualização

Carga de TI% da capacidade de alimentação do centro de dados

10% 20% 40% 80% 100%

Sem carga Carga total

2

3

2.00

Curva original do PUECurva inferior do PUE após a optimização da alimentação/arrefecimento (O assunto desta aplicação)

2.25

Optimização

1.74

60%

ANTES da virtualização

APÓS a virtualização

PUE

Pior

Melhor1.63

Dimensionamento correcto

Para obter mais informações sobre a eficiência como uma função da carga, consulte a White Paper 113, Modelos de eficiência para centros de dados. Reduzir as perdas fixas para melhorar o PUE Para tirar partido dos benefícios de poupança de energia da virtualização, uma infra-estrutura de alimentação e arrefecimento optimizada deverá incorporar elementos de design indicados a seguir, para minimizar as perdas fixas e maximizar a eficiência eléctrica global do projecto de virtualização: • Redução da capacidade de alimentação e arrefecimento para corresponder à carga

(por exemplo, desligar algumas unidades de arrefecimento ou remover módulos de UPS de UPSs escaláveis)

• Ventiladores e bombas de velocidade variável (VFD) que abrandam quando a necessidade diminui

• Equipamento com melhor eficiência para que consuma menos energia nas suas tarefas

• Arquitectura de arrefecimento com percursos de ar fechados ou mais curtos (por exemplo, fechar a ala quente ou fria ou passar de um perímetro baseado na sala para um perímetro baseado em filas)

• Sistema de gestão da capacidade, para equilibrar a capacidade com a necessidade e identificar capacidade desperdiçada

• Obturação dos painéis, para reduzir a mistura de ar de saída com o fornecimento de ar frio no interior do bastidor

Apesar de ter provavelmente o maior impacto, a redução da capacidade de alimentação e arrefecimento poderá ser a solução mais difícil de implementar num centro de dados existente. A redução da capacidade destes sistemas poderá não ser exequível em determinadas situações. Poderá não ser possível dividir o sistema se o design não for modular. Os sistemas da infra-estrutura em questão poderão ser novos ou adquiridos recentemente, tornando pouco prática a sua substituição ou modificação significativa. A dependência de outros sistemas ou operações fora do espaço livre num elemento específico de uma infra-estrutura (por exemplo, um arrefecedor em bloco) poderá levar à exclusão do tempo necessário e do potencial de redução da sua capacidade.

Modelos de eficiência de centros de dados

Link para a fonte White Paper 113

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 8

Consequentemente, os custos associados ao dimensionamento adequado da infra-estrutura de alimentação e arrefecimento poderão sobrepor-se às vantagens do alinhamento do fornecimento com as necessidades. Num centro de dados existente, é provável que as opções mais exequíveis incluam acções como as seguintes: • Instalação de painéis de obturação para reduzir a mistura de ar

• Orientação dos bastidores em corredores quentes e frios separados

• Instalação de tecnologias de contenção de ar

• Ajustamento da velocidade dos ventiladores ou desligamento de unidades de arrefecimento

• Remoção de módulos de alimentação desnecessários em UPs escaláveis

No entanto, para um centro de dados novo que esteja actualmente na fase de design, o dimensionamento adequado da infra-estrutura de alimentação e arrefecimento de acordo com a carga faz mais sentido. A tomada desta medida nesta fase implica a redução do investimento inicial e o aumento da eficiência energética quando o centro de dados estiver operacional. Conforme ilustrado pelo exemplo existente no anexo, um centro de dados existente poderá beneficiar de uma redução significativa do consumo de energia e de um melhoramento no PUE mesmo que toda a atenção seja concentrada apenas no aumento da eficiência dos sistemas de alimentação e arrefecimento existentes através da opções indicadas acima. A uniformização e a modularidade facilitam o dimensionamento correcto No entanto, apesar dos problemas de exequibilidade descritos para os centros de dados existentes, a capacidade sobredimensionada é ineficiente e constitui um desperdício. Além disso, conforme demonstrado pela barra lateral apresentada à esquerda, a existência de um sistema de alimentação e arrefecimento subcarregado tem efeitos negativos adicionais. Felizmente, as soluções de alimentação e arrefecimento actuais permitem, de forma mais fácil do que nunca, que um centro de dados existente mantenha a capacidade alinhada mais de perto com a necessidade real. Em parte, isto deve-se ao facto de possuírem uma capacidade escalável. Por seu turno, esta escalabilidade deriva da uniformização e da modularidade. A adição de capacidade aos sistemas não modulares tradicionais necessitava da presença de engenheiros nas instalações para conceber e montar vários componentes personalizados de vários fabricantes. A modificação ou redução posterior da capacidade destes sistemas tradicionais seria dispendiosa, altamente prejudicial e demorada. A concepção de sistemas de alimentação e refrigeração uniformes, montados/testados na fábrica e de natureza modular, torna a adição ou remoção de capacidade muito mais fácil e menos arriscada. Por exemplo, a capacidade de alimentação de uma UPS pode ser reduzida de forma rápida e segura através da simples remoção de módulos de alimentação do chassis. Isto pode ser efectuado sem interromper o fornecimento de alimentação à carga, não necessitando da presença de técnicos de assistência. A remoção destes módulos de alimentação reduz as perdas fixas, melhorando o PUE. Estes módulos poderão ser postos de lado e reutilizados mais tarde, à medida que a carga aumentar ao longo do tempo. Os sistemas de arrefecimento actuais são igualmente escaláveis. Por exemplo, os ventiladores de velocidade variável podem aumentar ou diminuir a velocidade consoante a carga de calor. À medida que a carga de TI global diminui após a virtualização inicial, os ventiladores podem funcionar a uma velocidade muito mais baixa, reduzindo consequencialmente as perdas proporcionais (a energia consumida pelo sistema que é proporcional à sua carga), o que também ajuda a melhor o PUE. A infra-estrutura física escalável, alinhada de perto com a gestão em tempo real (debatida mais adiante) pode ajudar a fornecer a quantidade certa de alimentação e arrefecimento onde e quando esta é necessária. Isto torna

> Efeitos da subcarga extrema A menos que a alimentação e o arrefecimento sejam reduzidos para fazer regressar a carga aos limites operacionais normais, estes efeitos podem originar despesas que invalidem parte da redução do consumo de energia ou que, em alguns casos, constituam um risco para a disponibilidade. Arrefecimento (carga térmica demasiado baixa) • Paragem de segurança devido a

pressão demasiado elevada na cabeça dos compressores • Ciclos curtos dos compressores

devido a paragens frequentes, que reduzem a vida útil do compressor • Possível anulação da garantia

devido ao funcionamento consistente abaixo do limite inferior de carga • Custo de bypass de gás quente

nos compressores para simular carga "normal" e prevenir ciclos curtos

Gerador (carga eléctrica demasiado baixa ou demasiados geradores) • Combustível não queimado no

sistema ("wet stacking"), que pode resultar em multas por poluição ou risco de incêndio • Custo de aquecedores de água

desnecessários para manter os motores quentes • Custo de armazenamento, teste

e manutenção de combustível em excesso

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 9

Diagrama 6 TradeOff Tool™ para cálculo da redução de custos associada à virtualização

o dimensionamento correcto uma opção mais realista após a virtualização de um centro de dados. Assim sendo, que redução adicional do consumo de energia é possível alcançar através do dimensionamento correcto da infra-estrutura? TradeOff Tool™ para cálculo da redução de custos associada à virtualização A Figura 6 mostra a TradeOff Tool™, a calculadora de custos energéticos da virtualização. Esta ferramenta interactiva ilustra a redução de TI, da infra-estrutura física e do consumo de energia resultantes da virtualização de servidores num centro de dados. A ferramenta permite ao utilizador introduzir dados relativos à capacidade, carga, número de servidores, custo energético e outros elementos do centro de dados.

> Efeito do consumo de corrente reduzido nos contratos de energia e assistência técnica Uma redução abrupta no consumo de corrente pode ter consequências não intencionais no que diz respeito aos contratos de energia e assistência. Estes contratos terão de ser revistos e renegociados sempre que necessário, de modo a não ter de abdicar da redução de custos do centro de dados para o fornecedor de energia, proprietário do edifício ou fornecedor de assistência técnica. • Contrato de electricidade – Os contratos com fornecedores de energia podem incluir uma cláusula que

penalize o cliente se o consumo eléctrico global diminuir até um nível inferior ao valor de consumo mensal predefinido.

• Cláusula sobre energia no contrato de arrendamento – Alguns contratos de arrendamento incluem o custo da electricidade como taxa fixa, cobrado tipicamente em custo por metro quadrado. Este contrato pode ter de ser renegociado, ou a redução de custos da virtualização irá recair sobre o proprietário do edifício.

• Contratos de assistência técnica do equipamento – Os contratos de assistência técnica devem ser revistos para remoção de equipamento de alimentação e arrefecimento não utilizado, evitando o pagamento pela assistência técnica de equipamento desactivado através da redução.

Clique na imagem de ecrã para aceder a uma versão em tempo real desta ferramenta interactiva

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 10

A criação e movimentação súbitas (e cada vez mais automatizadas) de máquinas virtuais exige uma gestão cuidadosa e políticas que contemplem o estado e a capacidade da infra-estrutura física até ao nível do bastidor individual. Caso contrário, poderá prejudicar a tolerância a falhas de software conseguida pela virtualização à Cloud Computing. Felizmente, existem actualmente ferramentas que simplificam e auxiliam esta tarefa. A carga eléctrica nos físicos podem variar em tempo e local à medida que as cargas virtuais são criadas ou movidas de uma localização para outra. À medida que o processador efectua cálculos ou muda de estado de alimentação, ou que os discos rígidos aceleram e desaceleram, a carga eléctrica de qualquer máquina, virtualizada ou não, varia. Esta variação podem ser ampliada quando estão implementadas políticas de gestão da energia que liguem e desliguem activamente máquinas ao longo do dia, à medida que as necessidades de cálculo mudam ao longo do tempo. No entanto, a política de limitação da alimentação pode reduzir esta variação. Nesta política, as máquinas estão limitadas na quantidade de energia que podem consumir antes que a velocidade do processador seja reduzida automaticamente. De qualquer modo, visto que a infra-estrutura física do centro de dados é quase sempre dimensionada com base numa percentagem elevada da potência nominal do equipamento de TI, este tipo de variação de alimentação não deve causar problemas de capacidade relacionados com a infra-estrutura física, especialmente quando a percentagem de servidores virtualizados é baixa. No entanto, um ambiente altamente virtualizado, semelhante ao caracterizado por um grande centro de dados baseado na nuvem, poderá ter variações de carga muito superiores às de um ambiente não virtualizado. A menos que sejam incrivelmente bem planeadas e geridas, estas variações de carga poderão ser suficientemente grandes para originarem problemas de capacidade ou, no mínimo, violarem as políticas relacionadas com a disponibilidade de capacidade. Os gestores estão cada vez mais a automatizar a criação e movimentação de VMs. É esta capacidade exclusiva que ajuda a aumentar a tolerância a falhas de um centro de dados virtualizado. Se ocorrer uma falha de software numa VM específica, ou se um servidor físico deixar de funcionar, outras máquinas poderão recuperar rapidamente a carga de trabalho com uma latência mínima para o utilizador. A criação e movimentação automatizada de VMs também permite grande parte da escalabilidade do poder de cálculo existente em Cloud Computing. Ironicamente, este movimento rápido e súbito de VMs também pode expor as cargas de trabalho de TI a problemas de alimentação e arrefecimento que possam existir e que, por sua vez, colocam as cargas em risco. Integração do DCIM e do gestor de VMs para automatizar a colocação de VMs mais segura O software de gestão da infra-estrutura do centro de dados (DCIM) pode monitorizar e reportar a condição e o estado de capacidade dos sistemas de alimentação e arrefecimento. Este software também pode ser utilizado para controlar as várias relações entre o equipamento de TI e a infra-estrutura física. Possuir informações como que servidores, físicos e virtuais, estão instalados num bastidor específico, juntamente com o percurso de alimentação e o sistema de arrefecimento associados a estes, são fundamentais para uma boa gestão de VMs. Estas informações são importantes porque, sem elas, é praticamente impossível saber que máquinas virtuais estão a ser criadas num ou movidas para este com recursos de alimentação e arrefecimento adequados. Depender da intervenção humana manual para resumir e tomar acções com base em todas as informações fornecidas pelo software DCIM pode transformar-se rapidamente num modo

Cargas dinâmicas de TI

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 11

inadequado de gestão da capacidade, tomando em consideração as várias exigências já colocadas sobre os gestores dos centros de dados. A necessidade de intervenção manual introduz o risco de erro humano, uma das principais causas dos períodos de inactividade. Neste caso, o erro humano tem probabilidades de assumir a forma de alterações na carga de TI sem tomar em consideração o estado e a disponibilidade da alimentação e arrefecimento numa determinada localização. A automatização da monitorização de informações DCIM (espaço disponível nos bastidores, capacidade de alimentação e arrefecimento e estado), assim como a implementação das acções sugeridas, reduz bastante este risco. Existe disponível software de gestão da infra-estrutura do centro de dados (DCIM) que pode proporcionar esta gestão automatizada em tempo real. Na Figura 7 é apresentado um exemplo disto. A comunicação bidireccional entre o gestor de VMs e o software DCIM, bem como a automatização de acções resultante desta integração, assegura que os servidores físicos e os sistemas de armazenamento recebem a alimentação e o arrefecimento necessários onde e quando necessário.

Normalmente, uma VM é criada ou movida para outro servidor físico porque não existem recursos suficientes de processador, memória ou armazenamento disponíveis num momento e numa localização específicos. No entanto, um sistema de gestão eficiente também pode originar a movimentação de VMs com base em informações em tempo real sobre a capacidade da infra-estrutura física e o estado ao nível do bastidor. Quando o software DCIM é integrado com o gestor de VM, as VMs podem ser movidas de modo seguro e automático para áreas que disponham de capacidade de alimentação e arrefecimento suficiente para suportar a carga adicional. Por outro lado, as VMs podem ser movidas de bastidores que desenvolvam problemas de alimentação ou arrefecimento. Por exemplo, se ocorrer uma falha de corrente num bastidor, se um ventilador de arrefecimento parar de trabalhar ou se ocorrer uma perda súbita de redundância de energia, o gestor de VMs poderá ser notificado do evento e as VMs "em risco" podem ser movidas para um bastidor seguro e em bom estado de funcionamento noutro ponto do centro de dados. Tudo isto acontece automaticamente e em tempo real, sem qualquer intervenção humana. A integração do software DCIM com um gestor de VMs é uma capacidade chave para garantir a protecção das cargas virtuais e dos respectivos anfitriões físicos. Por outro lado, os níveis de serviço podem ser mantidos mais facilmente e os técnicos não terão de despender tanto tempo a monitorizar fisicamente a infra-estrutura de alimentação e arrefecimento.

Diagrama 7 Exemplo de integração de DCIM e gestor de VMs: O conjunto de aplicações DCIM StruxureWare™ for Data Centers da Schneider Electric integra-se directamente com gestores de VMs, como o vSphere™ da VMware e o Virtual Machine Manager da Microsoft para garantir que só são colocados recursos virtuais onde existem capacidades suficientes de alimentação e arrefecimento

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 12

Esta integração torna-se ainda mais crítica à medida que as capacidades de alimentação e arrefecimento são reduzidas ou redimensionadas de acordo com um novo centro de dados virtualizado ou consolidado. Quanto menor for a capacidade em excesso existente, menor é a margem de erro para colocação de máquinas virtuais. A manutenção de um centro de dados altamente eficiente e correctamente aprovisionado num ambiente caracterizado por mudanças de carga súbitas e frequentes requer um sistema de gestão que funcione automaticamente e em tempo real com o gestor de VMs. Além disso, não deverá ser esquecido que as políticas de TI relativas à gestão de VMs têm de ser concebidas tomando em consideração os sistemas de alimentação e arrefecimento. Isto tem de ocorrer para que a integração do software DCIM com o gestor de VMs funcione conforme descrito acima. As políticas devem definir limites para as condições aceitáveis em termos de capacidade de alimentação e arrefecimento, estado e redundância de uma determinada aplicação ou VM. A necessidade reduzida de capacidade de alimentação e arrefecimento é uma vantagem conhecida da virtualização de TI, conforme descrito na secção anterior A redução da carga de TI pode afectar o PUE. No entanto, uma vantagem menos conhecida é o facto da virtualização de TI poder originar uma redução na necessidade de redundância na infra-estrutura física. O aumento da dependência na tolerância a falhas das máquinas virtuais bem geridas (e das aplicações em execução nas mesmas) e a redução da dependência em níveis mais elevados de redundância da infra-estrutura pode simplificar o design, reduzir o investimento e poupar espaço para outros sistemas necessários ou para o crescimento futuro da infra-estrutura de TI. Um ambiente altamente virtualizado é semelhante a um conjunto RAID, visto que é tolerante a falhas e altamente recuperável. Quando surgem problemas, é possível alterar a localização de cargas de trabalho, máquinas virtuais completas e recursos de armazenamento virtualizados para áreas seguras da rede. Esta mudança de recursos para manter um serviço ininterrupto ocorre a um nível que é essencialmente transparente para o utilizador final. No entanto, dependendo da qualidade da implementação de TI e do nível de integração do software de gestão de máquinas virtuais (VMs), o utilizador final poderá observar problemas temporários de latência enquanto esta migração é efectuada. Independentemente disto, de uma forma geral é possível manter os níveis de serviço num ambiente altamente virtualizado mesmo quando alguns servidores ou bastidores ficam indisponíveis. Graças a esta tolerância a falhas, poderá existir uma menor necessidade de um sistema de alimentação e arrefecimento altamente redundante (2N ou 2N+1) num centro de dados altamente virtualizado. Por exemplo, se a falha de uma UPS específica não originar a interrupção do serviço, poderá não ser necessário dispor de um sistema UPS redundante de reserva para substituir o que acabou de falhar. Se estiver a planear criar um novo centro de dados com sistemas de alimentação e arrefecimento redundantes "2N", talvez deva considerar criar dois centros de dados N+1. Por exemplo, o investimento associado a dois centros de dados de 500 kW com alimentação e arrefecimento N+1 é cerca de 35% inferior ao da criação de uma única instalação de 1 MW com alimentação arrefecimento 2N. A tolerância a falhas de uma rede altamente virtualizada permite que as organizações encarem actualmente esta redução na redundância da infra-estrutura como uma opção real. Antes de tomar este tipo de decisões, o pessoal de gestão de TI e instalações deverá obviamente considerar os impactos possíveis da falha ou indisponibilidade do sistema ou componente da infra-estrutura física na continuidade do funcionamento. Isto significa que os sistemas e as políticas de gestão de TI deverão ser revistos e monitorizados para garantir que são capazes de proporcionar um nível de serviço e tolerância a falhas que permita a existência de menor redundância na infra-estrutura física. Esta correspondência entre a redundância da infra-estrutura física e a natureza tolerante a falhas de um ambiente de TI altamente virtualizado é outra forma do dimensionamento adequado descrito anteriormente.

Requisitos de redundância reduzidos

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 13

Quando efectuado deste modo, o dimensionamento adequado poderá reduzir ainda mais o consumo energético, o investimento e as perdas fixas, melhorando simultaneamente o PUE do centro de dados. Para obter mais informações sobre a redundância de UPS, consulte a White Paper 75, Comparação de configurações de sistemas UPS. Para obter mais informações sobre o impacto possível do design da infra-estrutura física no investimento do centro de dados, utilize o Data Center Capital Cost TradeOff Tool™. Poderá encontrar uma hiperligação na secção Recursos, no final desta aplicação.

Comparação de configurações de sistemas UPS

Link para a fonte White Paper 75

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 14

A virtualização dos recursos de TI de um centro de dados poderá ter consequências específicas relacionadas com a infra-estrutura física. Se estes impactos e consequências forem ignorados, as vantagens da virtualização e da Cloud Computing poderão ser limitadas ou comprometidas (a um nível bastante elevado, em alguns casos). Após a consolidação de servidores podem surgir áreas de alta densidade, que podem originar hot spots que causem falhas de hardware. Existem vários métodos para garantir que o sistema de arrefecimento tem os meios e a capacidade necessários para arrefecer fiavelmente o equipamento de alta densidade. O PUE pode piorar significativamente após a consolidação. Através da optimização dos sistemas de alimentação e arrefecimento, para os adaptar a esta nova carga de TI reduzida, é possível melhorar significativamente o PUE. Esta optimização é facilitada se forem utilizados sistemas escaláveis e modulares. As cargas dinâmicas de TI, que podem variar automaticamente em tempo e localização, poderão ser acidentalmente colocadas em risco se o estado da alimentação e do arrefecimento não for tomado em consideração inicialmente ao nível do bastidor. O planeamento cuidadoso e a gestão constante são necessários para garantir que só são colocadas VMs onde existir alimentação e arrefecimento adequados. Esta gestão constante pode ser automatizada através da criação de políticas de VMs sólidas e da integração do software DCIM com o gestor de VMs. Finalmente, o elevado nível de tolerância a falhas que é disponibilizado pelo software de gestão de VMs actual permite utilizar uma infra-estrutura de alimentação e arrefecimento menos redundante. Esta estratégia pode poupar tempo, espaço e energia, além de reduzir significativamente o investimento. A implementação das soluções descritas nesta aplicação irá manter um centro de dados altamente virtualizado em funcionamento com maior fiabilidade e eficiência, bem como com uma flexibilidade expandida para satisfazer as necessidades de alimentação altamente dinâmicas doprocessamento .

Conclusão

Suzanne Niles é Analista de Investigação Sénior no Data Center Science Center da Schneider Electric. Estudou matemática no Wellesley College antes de obter o bacharelato em ciências informáticas no MIT, com uma tese sobre reconhecimento de caracteres manuscritos. Há mais de 30 anos que efectua apresentações públicas, utilizando uma grande diversidade de suportes, desde manuais de software até fotografia e canções para crianças. Patrick Donovan é Analista de Investigação Sénior do Data Center Science Center da Schneider Electric. Tem mais de 16 anos de experiência no desenvolvimento e suporte de sistemas de alimentação e arrefecimento críticos para a unidade de negócio de TI da Schneider Electric, incluindo várias soluções premiadas de protecção de alimentação, eficiência e disponibilidade.

Sobre os autores

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 15

Vantagens das arquitecturas de arrefecimento orientadas para filas ou para bastidores em centros de dados White Paper 130

Implementar zonas de alta densidade em centros de dados de baixa densidade White Paper 134

Gestão da capacidade de alimentação e arrefecimento para centros de dados White Paper 150

Electrical Efficiency Modeling for Data Centers White Paper 113

Comparação de configurações de sistemas UPS White Paper 75

Calculadora de custos energéticos da virtualização TradeOff Tool 9 Calculadora do investimento do centro de dados TradeOff Tool 4

Recursos Clique no ícon para visualizar a fonte

Procurar todas as aplicações técnicas whitepapers.apc.com

tools.apc.com

Procurar todas as aplicaçõesTradeOff Tools™

Para feedback e comentários sobre o conteúdo desta aplicação técnica: Data Center Science Center [email protected] Se for um cliente e tiver dúvidas específicas do seu projecto de centro de dados: Contacte o representante da Schneider Electric www.apc.com/support/contact/index.cfm

Contacte-nos

Virtualização e Cloud Computing: a optimização da alimentação, arrefecimento e gestão maximiza as vantagens

Schneider Electric – Data Center Science Center White Paper 118 Rev 3 16

Diagrama 8 Estudo de caso que mostra o efeito da virtualização com e sem melhorias na alimentação/ arrefecimento

Este estudo de caso foi efectuado utilizando a aplicação TradeOff Tool™ Calculadora de custos energéticos da virtualização da APC. Pressupõe-se que este centro de dados hipotético de 1 MW tenha 70% da carga sem redundância de alimentação e arrefecimento com custos energéticos superiores a 1.400.000 dólares (Figura 8). O centro de dados é virtualizado com uma diminuição de 10 para 1 na energia do servidor. Devido a esta redução de carga originada pela virtualização, a infra-estrutura de alimentação e arrefecimento encontra-se agora em subcarga e funciona com uma eficiência de infra-estrutura reduzida (PUE 2,25) devido a perdas fixas, conforme descrito nesta aplicação. Nesta fase, o custo energético total só teria uma redução de 17%. No entanto, o PUE poderá diminuir para 1,63 e a redução do custo energético poderá alcançar 40% se a UPS, os PDUs e as unidades de arrefecimento também forem dimensionadas adequadamente e forem utilizados métodos de contenção de ar (por exemplo, painéis de obturação). É de notar que, quando comparada com a carga após a virtualização e antes da optimização da infra-estrutura, a carga global do centro de dados na infra-estrutura física iria aumentar devido ao dimensionamento da capacidade do centro de dados. Isto significa que a capacidade nominal do centro de dados iria diminuir, porque a infra-estrutura física foi dimensionada adequadamente à menor carga de TI.

$1,472,113Antes daVirtualização

Apósmelhoramentosna alimentação/arrefecimento

Antes daVirtualização

$1,472,113Antes daVirtualização

$1,217,563Após a Virtualização

$1,217,563Após a Virtualização

reduçãode custos redução

de custos28%

$1,472,113

Anexo

a. Antes da virtualização Capacidade do centro de dados: 1.000 kW Carga de TI total: 700 Kw Carga do centro de dados 70% Carga do servidor: 490 kW (70% da carga de TI) Arrefecimento baseado na sala Disposição em alas quentes/alas frias CRACs não coordenadas UPS: Tradicional, eficiência a 89% com carga máxima Chão falso de 18” com obstrução de cabos de 6” Colocação dispersa de ladrilhos perfurados Sem painéis de obturação

b. Após a virtualização Apenas consolidação de servidores Capacidade do centro de dados: 1.000 kW Carga de TI total: 515 kW Carga do centro de dados 52% Redução de servidores de 10 para 1 100% dos servidores foram virtualizados Carga do servidor: 305 kW (59% da carga de TI) Sem alteração dos elementos DCPI

c. Após a virtualização E implementação dos melhoramentos de alimentação/arrefecimento e dimensionamento adequado Capacidade do centro de dados: 515 kW Carga de TI total: 515 kW Carga do centro de dados 100% UPS: Eficiência elevada, eficiência a 96% com carga máxima Arrefecimento fornecido baseado em filas (sem contenção) Painéis de obturação adicionados CRAC, CRAH, UPS e PDUs dimensionados adequadamente à carga NOTA: 90% desta redução total no custo energético foram obtidos através da optimização do sistema existente (UPS de eficiência elevada, instalação de arrefecimento baseado em filas e painéis de obturação. Os restantes 10% foram obtidos através do dimensionamento correcto dos CRACs, CRAHs, UPSs e PDUs.

PUE = 2,00 PUE = 2,25 PUE = 1,63