ALINE BEATRIZ GONZALEZ FRIGO
INFRAESTRUTURA DE DATA CENTER E SUAS TENDÊNCIAS COM FOCO EM
EFICIÊNCIA ENERGÉTICA
Guaratinguetá
2015
ALINE BEATRIZ GONZALEZ FRIGO
INFRAESTRUTURA DE DATA CENTER E SUAS TENDÊNCIAS COM FOCO EM
EFICIÊNCIA ENERGÉTICA
Guaratinguetá
2015
Trabalho de Graduação apresentado
ao Conselho de Curso de Graduação em
Engenharia Elétrica da Faculdade de
Engenharia do Campus de Guaratinguetá,
Universidade Estadual Paulista, como parte
dos requisitos para obtenção do diploma de
Graduação em Engenharia Elétrica.
Orientador: Prof. Dr. Leonardo Mesquita
F912i
Frigo, Aline Beatriz Gonzalez
Infraestrutura de data center e suas tendências com foco em eficiência
energética / Aline Beatriz Gonzalez Frigo – Guaratinguetá, 2015.
50 f : il.
Bibliografia: f. 47-50
Trabalho de Graduação em Engenharia Elétrica – Universidade
Estadual Paulista, Faculdade de Engenharia de Guaratinguetá, 2015.
Orientador: Prof. Dr. Leonardo Mesquita
1. Estruturas de dados (Computação) 2. Energia - Conservação
3. Computação em nuvem 4. Banco de dados bibliográficos I. Título
CDU 681.3.4
De modo especial aos meus pais, Andrea e Ítalo,
e à minha irmã Fernanda, que recentemente
chegou a este mundo.
AGRADECIMENTOS
Primeiramente agradeço à minha família, meus pais Andrea e Ítalo, meu padrasto
Romerito e minha madrasta Flavia, por todo o empenho para que eu chegasse até aqui, por
estarem sempre presentes, me apoiando e me incentivando.
À minha prima Erica, que mesmo vivendo muito longe, me acompanhou de perto em
pensamento e coração.
Agradeço às minhas amigas e grandes companheiras Priscila, Renata e Thais, pelas
muitas horas que passamos sentadas estudando, conversando e comendo, por todos os bons
momentos e pela presença dos não tão bons.
À República Bem-me-Quer, Aline, Ana Julia, Beatriz, Francine, Julia e Letícia, por
fazerem de Guaratinguetá minha casa. Por todas as risadas, loucuras e desafios que vencemos
juntas.
Agradeço aos meus colegas de trabalho, Alan, Alex, Marcio e Milena, por me ajudarem
a entrar no mundo corporativo e por todos os conhecimentos compartilhados.
Ao meu orientador Prof. Leonardo, por todo o apoio, paciência e incentivo.
Finalmente, à Faculdade de Guaratinguetá e todas as pessoas, que de alguma forma,
contribuíram nesta fase tão importante da minha vida.
“A melhor maneira de prever o futuro é inventá-lo.”
Alan Kay
FRIGO, A. INFRAESTRUTURA DE DATA CENTER E SUAS TENDÊNCIAS COM
FOCO EM EFICIÊNCIA ENERGÉTICA. 2015. 50 f. Trabalho de graduação (Graduação
em Engenharia Elétrica) – Faculdade de Engenharia do Campus de Guaratinguetá,
Universidade Estadual Paulista, Guaratinguetá, 2015.
RESUMO
Com o surgimento do Big Data, o crescimento do Cloud computing e da Internet das Coisas, os
datas centers vem se multiplicando no Brasil e no mundo. Projetar e operar esses ambientes de
forma eficiente se tornou um desafio necessário, e para isso, é imprescindível um melhor
conhecimento de sua infraestrutura. Sendo assim, este trabalho apresenta uma análise
bibliográfica com conceitos técnicos, de forma a buscar entender as necessidades específicas
relacionadas a esses ambientes e as formas de melhor atendê-las. Aborda os principais sistemas
da infraestrutura de data centers, métodos para melhorar sua eficiência energética e suas
tendências para o futuro.
PALAVRAS CHAVES: Data Center. Eficiência Energética.
FRIGO, A. DATA CENTER INFRASTRUCTURE AND ITS FUTURE TRENDS WITH
FOCUS ON ENERGY EFFICIENCY. 2015. 50 f. Graduate Work (Graduate in Electrical
Engineering) – Faculdade de Engenharia do Campus de Guaratinguetá, Universidade Estadual
Paulista, Guaratinguetá, 2015
ABSTRACT
With the Big Data development and the growth of cloud computing and Internet of Things, data
centers have been multiplying in Brazil and the rest of the world. Designing and running this
sites in an efficient way has become a necessary challenge and to do so, it’s essential a better
understanding of its infrastructure. Thus, this paper presents a bibliography study using
technical concepts in order to understand the specific needs related to this environment and the
best forms address them. It discusses the data center infrastructure main systems, methods to
improve their energy efficiency and their future trends.
KEYWORDS: Data Center. Energy Efficiency.
LISTA DE FIGURAS
Figura 1.1 Volume de dados por plataforma ............................................................................ 10
Figura 1.2 Previsão de crescimento do tráfego IP .................................................................... 12
Figura 1.3 Divisão do tráfego de internet atualmente .............................................................. 12
Figura 1.4 Divisão do tráfego de internet atualmente .............................................................. 13
Figura 1.5 Previsão de crescimento de dispositivos e tráfego IP no Brasil. ............................. 13
Figura 2.1 Elementos de um data center .................................................................................. 16
Figura 2.2 Sala de computadores da Gainesvilledatacenter .................................................... 16
Figura 2.3 Servidores alocados dentro do rack......................................................................... 17
Figura 2.4 Distribuição elétrica no data center ........................................................................ 21
Figura 2.5 Exemplos transformador, gerador e ATS, respectivamente.................................... 23
Figura 2.6 Nobreak Off-line...................................................................................................... 24
Figura 2.7 Nobreak Interativo .................................................................................................. 24
Figura 2.8 Nobreak Dupla Conversão ...................................................................................... 25
Figura 2.9 Nobreak rotativo...................................................................................................... 26
Figura 2.10 Funcionamento do nobreak rotativo...................................................................... 26
Figura 2.11 Exemplos de PDU ................................................................................................. 27
Figura 2.12 Ciclo básico de refrigeração .................................................................................. 30
Figura 2.13 Corredores quentes e frios ..................................................................................... 31
Figura 2.14 Solução de confinamento de corredor quente ....................................................... 32
Figura 2.15 Esquema de confinamento de corredor frio e quente, respectivamente ................ 32
Figura 2.16 Configuração perimetral........................................................................................ 32
Figura 2.17 Unidade perimetral insuflando em corredor frio ................................................... 33
Figura 2.18 Configuração por corredor .................................................................................... 33
Figura 2.19 Configuração por rack ........................................................................................... 34
Figura 2.20 Configuração híbrida ............................................................................................. 34
Figura 3.1 Tarifa de energia média para a indústria no mundo ................................................ 37
Figura 3.2 Evolução da tarifa de energia elétrica para a indústria ........................................... 37
Figura 3.3 Média de PUE de grandes data center no mundo ................................................... 39
Figura 4.1 Resfriamento por submersão ................................................................................... 42
Figura 4.2 Data center pré-fabricado ........................................................................................ 43
Figura 5.1 Layout da sala de computadores ............................................................................. 44
Figura 5.2 Projeto da sala de computadores em 3D ................................................................. 45
SUMÁRIO
1 OBJETIVO E JUSTIFICATIVA .................................................................................. 10
1.1 INTRODUÇÃO ................................................................................................................ 10
2 O DATA CENTER .......................................................................................................... 15
2.1 CLASSIFICAÇÃO DO DATA CENTER ........................................................................ 17
2.1.1 Confiabilidade ................................................................................................................ 17
2.1.2 Disponibilidade .............................................................................................................. 18
2.1.3 Redundância .................................................................................................................. 18
2.1.4 Classificações Tier .......................................................................................................... 19
2.2 O SISTEMA ELÉTRICO DO DATA CENTER .............................................................. 21
2.2.1 Alimentação, Grupo Gerador e Chaves de Transferência ......................................... 22
2.2.2 Sistema de UPS .............................................................................................................. 23
2.2.3 Quadros elétricos e PDUs ............................................................................................. 26
2.3 SISTEMA DE CLIMATIZAÇÃO .................................................................................... 27
2.3.1 Ar condicionado de conforto v.s. Ar condicionado de precisão ................................ 28
2.3.2 Ciclo básico da refrigeração ......................................................................................... 29
2.3.3 Localização da unidade de refrigeração ...................................................................... 30
2.4 AUTOMAÇÃO, SEGURANÇA E PROTEÇÃO CONTRA INCÊNDIOS ..................... 35
3 EFICIÊNCIA ENERGÉTICA EM DATA CENTERS ............................................... 37
3.1 MÉTRICAS DE AVALIAÇÃO DE EFICIÊNCIA .......................................................... 38
3.1.1 PUE e DCE ..................................................................................................................... 38
3.2 SOLUÇÕES PARA AUMENTO DA EFICIÊNCIA ENERGÉTICA ............................. 39
3.2.1 Redução do consumo dos equipamentos de TI ........................................................... 39
3.2.2 Redução do consumo com climatização....................................................................... 40
4 OS DATA CENTERS DO FUTURO – TENDÊNCIAS .............................................. 42
5 ESTUDO DE CASO ........................................................................................................ 44
6 CONSIDERAÇÕES FINAIS ......................................................................................... 46
7 REFERÊNCIAS BIBLIOGRÁFICAS .......................................................................... 47
10
1 OBJETIVO E JUSTIFICATIVA
1.1 INTRODUÇÃO
A evolução da internet no fim do século XX trouxe consigo mudanças estruturais na
sociedade, fazendo com que um número cada vez maior de dispositivos acessem,
simultaneamente, grandes volumes de dados em altas velocidades. Em 1992 o tráfego de dados
na internet era de aproximadamente 100GB por dia; apenas 10 anos depois, em 2002, esse
tráfego global já era de 100GB por segundo. Atualmente existem mais de 3 bilhões de usuários
de internet no mundo e é possível fazer estimativas realistas sobre seus hábitos na rede,
conforme ilustra a Figura 1.1. (CISCO, 2015)
Figura 1.1 Volume de dados por plataforma
Fonte: (DOMO, 2015)
11
De acordo com Gil Torquato, Chief Executive Officer (CEO) do UOLDIVEO, os
próximos anos da internet serão marcados, principalmente, por três tendências: Big Data,
Computação em Nuvem (Cloud Computing) e plataformas móveis. O crescimento das
tendências citadas por Torquato, além do desenvolvimento da Internet das Coisas (Internet of
Things), vem transformando a rotina e o relacionamento de pessoas e empresas no mundo todo,
com as informações chegando com mais rapidez e precisão. (UOLDIVEO, 2015)
Big Data é o termo usado para descrever o crescimento, a disponibilidade e o uso
exponencial de informações estruturadas e não estruturadas. Trabalhar com esses dados exige
soluções específicas, feitas, principalmente, para conseguir análises precisas rapidamente,
permitindo uma tomada de decisão mais eficiente.
Computação em nuvem é o conceito que se refere à utilização de toda a infraestrutura
por detrás da conexão, como por exemplo, a capacidade de armazenamento e processamento
de dados. Dessa forma, basta qualquer computador conectado à rede para que se tenha acesso
aos arquivos, aplicações e serviços, sendo desnecessário que o usuário gaste com hardwares
potentes. Atualmente muitas empresas oferecem esse serviço, por exemplo Dropbox, Netflix,
Oracle Cloud.
Internet das Coisas é o termo utilizado para descrever a conexão de qualquer dispositivo
à rede, aproximando o mundo físico do digital. Atualmente, muitos objetos do cotidiano já estão
conectados, como geladeiras, lavadoras de roupa, elevadores, carros. A Internet das Coisas
permite melhorar operações do dia a dia, economizar tempo e recursos financeiros.
A multinacional americana Cisco, líder mundial em redes de internet, publica estudos
periódicos sobre o uso da internet, quantidade de dados transmitidos, dispositivos conectados,
velocidade da conexão e outras informações relacionadas. Esses estudos contém previsões
confiáveis a respeito do que esperar em relação à internet nos próximos anos.
O último relatório, divulgado em maio de 2015, mostra o crescimento esperado para o
tráfego Internet Protocol (IP) global até 2019, como se vê na Figura 1.2, havendo a expectativa
de que o tráfego IP global anual ultrapasse 1 zettabyte ao final de 2016. (CISCO, 2015)
12
Figura 1.2 Previsão de crescimento do tráfego IP
Fonte: (CISCO, 2015)
Para elucidar o significado das nomenclaturas exabyte e zettabyte é comum o uso de
comparações, como:
1 exabyte de dados equivale a 36.000 anos de vídeo em alta resolução;
Se 312g de café representassem 1GB, 1 ZB teria o mesmo volume da Grande
Muralha da China; (BARNETT, 2011)
O número de dispositivos conectados vem crescendo a cada ano; se em 2014 havia algo
em torno de 14,2 bilhões, a previsão para 2019 é de 24,4 bilhões de dispositivos. A título de
exemplo, a Figura 1.3 mostra quais tipos de dispositivos são comumente conectados. (CISCO,
2015)
Figura 1.3 Divisão do tráfego de internet atualmente
Fonte: (CISCO, 2015)
A Figura 1.4 mostra de que é composto o tráfego atual da internet. Vídeos representam
o maior volume do tráfego IP mundial, aproximadamente 67%, e a previsão é que alcance 80%
até o fim de 2019. (CISCO, 2015)
Exabytes
por mês
13
Figura 1.4 Divisão do tráfego de internet atualmente
Fonte: (CISCO, 2015)
Os dados coletados referentes ao Brasil também apontam um crescimento significativo
entre 2014 e 2019. A Figura 1.5 mostra o tráfego IP e o número de dispositivos conectados à
internet no Brasil em 2014, bem como sua perspectiva de crescimento. (CISCO, 2015)
Figura 1.5 Previsão de crescimento de dispositivos e tráfego IP no Brasil.
Fonte: (CISCO, 2015)
0
100
200
300
400
500
600
700
800
0
1
2
3
4
5
6
2014 2019
M
ilh
õ
es
d
e
d
is
p
o
si
ti
vo
s
Ex
ab
yt
es
p
o
r
m
ês
Números do Brasil
Tráfego IP Dispositivos
14
Uma grande infraestrutura está por trás dos avanços nessa área, e para que o crescimento
continue sendo possível, é necessário que essa infraestrutura continue a se expandir.
Os Centros de Processamento de Dados, conhecidos tecnicamente por data centers,
surgiram e evoluem constantemente a fim de atender essa demanda. Até 2017 haverá
aproximadamente 8,6 milhões de data centers no mundo, existindo atualmente em torno de 3
milhões de data centers nos Estados Unidos. (SVERDLIK, 2014; VARGAS, 2014)
Um data center abriga servidores e outros componentes, como sistemas de
armazenamento e ativos de rede, para rodar aplicações, armazenar dados e disponibilizar todas
essas informações a qualquer momento aos usuários conectados à rede. São sistemas de missão
crítica, ou seja, ambientes construídos de modo a operar todo o tempo, sem paradas, oferecendo
uma alta disponibilidade aos usuários e evitando a perda de dados importantes. Contudo, operar
ininterruptamente faz com que os data centers consumam uma grande quantidade de energia, o
que remete ao grande desafio de garantir sua eficiência energética.
Com o objetivo de aprofundar essa questão, este trabalho visa entender os principais
equipamentos dentro da infraestrutura de um data center, identificar seus maiores consumidores
de energia, buscar soluções que aumentem sua eficiência energética e quais são as tendências
dos data centers no futuro.
15
2 O DATA CENTER
O termo data center é muitas vezes usado para se referir somente ao espaço onde estão
instalados os equipamentos de TI (Tecnologia da Informação), porém seu conceito engloba a
infraestrutura do site como um todo.
Um data center possui basicamente os seguintes sistemas: (MARIN,2011)
Sala de Computadores (Computer Room, White Space ou ainda, piso elevado)
Distribuição elétrica e nobreak
Ar condicionado e controle ambiental
Automação do edifício
Detecção de supressão de incêndio
Segurança e controle
A Figura 2.1 mostra uma visão geral dos elementos que podem compor um data center.
Esses sistemas serão explorados nas próximas seções deste capítulo. Primeiro, abordaremos o
conceito de classificação da infraestrutura do data center.
Os equipamentos de TI ficam alocados na sala de computadores, em gabinetes chamados
racks. Existem vários modelos de racks e as principais diferenças entre um modelo e outro são:
capacidade suportada, número de espaços U1, dimensões (altura, largura e profundidade) e
quantidade de perfurações para a passagem do fluxo de ar. A Figura 2.2, uma foto da sala de
computadores da Gainesville Data Center, (empresa localizada no estado da Florida, EUA.),
mostra os racks enfileirados, e na parte inferior da imagem, o piso elevado2. Já a Figura 2.3 traz,
no detalhe, servidores dentro de um rack.
1 Rack Unit, ou simplesmente U, é a medida utilizada para descrever a altura de servidores, switches e outros
dispositivos colocados no racks. Cada U equivale a 44.45mm. Um rack padrão possui 42Us.
2 Piso elevado é um tipo de piso usado para elevar o ambiente em alguns centímetros, criando um espaço para a
passagem de cabos de comunicação, elétricos, ar refrigerado e/ou tubulações de água para refrigeração.
16
Figura 2.1 Elementos de um data center
Fonte: (SCHNEIDER ELECTRIC, 2009)
Figura 2.2 Sala de computadores da Gainesvilledatacenter
Fonte: (GAINESVILLEDATACENTER, 2015)
17
Figura 2.3 Servidores alocados dentro do rack
Fonte: (BIT MAGAZINE, 2015)
2.1 CLASSIFICAÇÃO DO DATA CENTER
Baseado em pesquisas feitas pelo Gartner (LERNER, 2014), empresa de consultoria
americana, o custo do tempo de parada do data center (downtime) é em torno de 300 mil dólares
por hora. Dada sua natureza crítica de operação, as características mais importantes de um data
center são confiabilidade, disponibilidade e redundância. Por isso, esses são os principais
índices utilizados para classificá-lo. Segundo Marin (2011), existem algumas normas para a
infraestrutura de data centers, como a ANSI/BICSI-002, a TÜV Rheinland e a ANSI/TIA 942,
sendo esta última a mais utilizada atualmente. Para os fins deste trabalho, nos restringiremos à
normativa ANSI/TIA 942 (Telecommunications Infrastructure Standard for Data center –
Infraestrutura de Telecomunicações para data centers), que tem como base a classificação em
Tiers. Essa especificação é uma iniciativa da organização norte-americana The Uptime Institute
e leva em conta características de redundância e tolerância a falhas.
2.1.1 Confiabilidade
Confiabilidade representa a “capacidade de um item desempenhar uma função requerida
sob condições especificadas, durante um dado intervalo de tempo” (NBR 5462, 1994, p.3).
Pode ser entendida como a probabilidade de um componente ou sistema não apresentar falhas
durante o tempo de duração específico.
A confiabilidade dependente da métrica MTBF (Mean Time between Failures – Tempo
médio entre falhas), normalmente expressa em horas, e representa a média de tempo decorrido
entre uma falha e a próxima. É importante ressaltar que esse índice não é uma previsão de
18
quando o dispositivo irá falhar ou de sua vida operacional. Não existe uma metodologia
padronizada para o cálculo do MTBF e, portanto, o procedimento é definido conforme cada
fabricante. Quanto maior o MTBF, maior a confiabilidade. (MARIN, 2011)
A expressão de confiabilidade é dada pela equação (1).
𝐶𝑜𝑛𝑓𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒 = 𝑒−(1
𝑀𝑇𝐵𝐹⁄ ) (1)
2.1.2 Disponibilidade
Disponibilidade é o percentual de horas que o sistema está em operação em relação ao
tempo em que ele deve estar operando. É a probabilidade do sistema estar operando
corretamente quando seu uso for solicitado.
A disponibilidade é calculada conforme a equação (2) e depende dos índices MTBF e
MTTR (Mean Time To Repair – Tempo médio de reparo). (MARIN, 2011)
𝐷𝑖𝑠𝑝𝑜𝑛𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒 =
𝑀𝑇𝐵𝐹
𝑀𝑇𝐵𝐹+𝑀𝑇𝑇𝑅
=
𝑡𝑒𝑚𝑝𝑜 𝑑𝑜 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑒𝑚 𝑜𝑝𝑒𝑟𝑎çã𝑜
𝑡𝑒𝑚𝑝𝑜 𝑡𝑜𝑡𝑎𝑙 𝑒𝑚 𝑞𝑢𝑒 𝑜 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑒𝑥𝑖𝑠𝑡𝑒
(2)
MTTR é o tempo previsto para a recuperação do sistema após ocorrer uma falha,
podendo incluir os tempos para diagnóstico do problema, chegada de um assistente técnico,
recebimento de peças de substituição e o reparo propriamente dito. Quanto maior o MTTR, pior
será a disponibilidade do sistema.
Data centers são sistemas que, geralmente, devem operar 24 horas por dia durante todo
o ano, o que corresponde a 8 760 horas. A tabela 1 mostra a relação entre o nível de
disponibilidade e a quantidade de horas de inatividade do sistema. Conforme aumenta-se o nível
de disponibilidade, o custo de investimento inicial também aumenta.
Tabela 1- Nível de disponibilidade
Nível De Disponibilidade Tempo De Inatividade Por Ano
90% 36,5 dias
95% 18,25 dias
99% 3,65 dias
99,999% 5 minutos
Fonte: (IBM, 2015)
2.1.3 Redundância
Redundância pode ser entendida como duplicidade de partes, módulos, componentes
e/ou sistemas com a finalidade de evitar o tempo de parada de um site devido a:
19
Falhas técnicas
Falhas humanas (que causam erros de operação)
Manutenção preventiva ou corretiva
2.1.4 Classificações Tier
As classificações tier descrevem as topologias da infraestrutura do data center para
operação satisfatória. Essa avaliação considera apenas os sistemas de distribuição elétrica e
climatização. Apesar de existirem quatro classes de tier, as quais serão detalhas nas próximas
seções, não existe o conceito de superioridade entre elas, ou seja, um data center tier 4 não é
melhor que um data center tier 2. A classificação tier, infraestrutura do data center, deve
corresponder às necessidades do negócio, de modo que não seja um investimento maior que o
necessário ou menor a ponto de trazer riscos do negócio.
2.1.4.1 Tier 1: Data center básico
Data centers básicos são aqueles que não apresentam componentes ou sistemas
redundantes em sua infraestrutura de distribuição elétrica e climatização. São suscetíveis a
interrupções por atividades planejadas e causas acidentais.
São infraestruturas apropriadas para pequenos negócios, onde a “presença na internet”
seja uma ferramenta de marketing passivo e não haja grandes perdas com a indisponibilidade.
2.1.4.2 Tier 2: Data center com componentes redundantes
É o data center que apresenta alguns componentes em redundância, porém com um
único ramo de distribuição de energia e refrigeração. Falhas no ramo de distribuição causam
indisponibilidade do sistema e manutenção corretiva ou preventiva, o que exige o desligamento
do sistema.
São apropriados para pequenos negócios, geralmente limitados a horas de expediente
tradicionais, permitindo o desligamento do sistema em horas sem operação.
2.1.4.3 Tier 3: Data center com manutenção e operação simultânea
20
Data centers que possuem componentes redundantes e vários ramos de distribuição
independentes de energia e refrigeração, sendo que um único ramo atende completamente a
carga de TI, de modo que componentes podem ser desligados sem que a operação seja
interrompida. Todos os equipamentos de TI devem ser alimentados de forma dual, ou seja, com
dupla alimentação. O site é suscetível a interrupções por atividades não planejadas.
São adequados a empresas que necessitam do sistema 24 horas por dia para atender
clientes internos e externos ou porque o mesmo suporta processos automatizados que não
poderão ser interrompidos sem planejamento.
2.1.4.4 Tier 4: Data center tolerante a falhas
Um data center tolerante a falhas tem vários sistemas independentes, fisicamente
isolados, com componentes redundantes, ramos de distribuição independentes que atendem a
carga de TI simultaneamente e com todos os equipamentos possuindo dupla alimentação. Esses
data centers são capazes de manter a operação quando componentes são retirados de serviço
por qualquer razão.
São apropriados para grandes empresas, em um mercado altamente competitivo, com
negócios baseados em comércio eletrônico ou processos financeiros. O único data center com
certificação Tier 4 no Brasil fica localizado em Campinas – SP, pertence ao Banco Santander,
e foi inaugurado em junho de 2014. Foi também o primeiro data center com essa classificação
da América Latina.
O quadro 1 apresenta algumas característica nas classificações tier.
Quadro 1- Classificações Tier
Classificação Disponibilidade Horas de inatividade por ano Estimativa de custo por kW
Tier 1 99,67% 28,8 US$ 10.000/kW
Tier 2 99,74% 22,0 US$ 11.000/kW
Tier 3 99,98% 1,6 US$ 20.000/kW
Tier 4 99,99% 0,4 US$ 22.000/kW
Fonte: (MARIN,2011)
Nas próximas seções serão detalhados os principais equipamentos utilizados em data
centers.
21
2.2 O SISTEMA ELÉTRICO DO DATA CENTER
Manter os equipamentos de TI operando quase 100% do tempo requer uma alimentação
contínua, fazendo com que o sistema de distribuição elétrica seja o mais crítico dentro do data
center. Sendo assim, são necessários que equipamentos e sistemas auxiliares sejam agregados
ao componentes da distribuição convencional.
Esse sistema elétrico deve ser composto por alguns elementos básicos, que podem estar
no mesmo ambiente ou em ambientes isolados: (Marin, 2011)
Entrada de alimentação elétrica proveniente da concessionária;
Grupo motor-gerador (também chamado somente de gerador);
Chaveadores (chaves de comutação);
Sistema UPS (Uninterruptable Power Supply – Fonte de Alimentação
Ininterrupta, também chamado de nobreak);
Quadros/painéis de distribuição (PDU: Power Distribution Unit – Unidade de
Distribuição de Energia);
Sistema de aterramento;
A Figura 2.4 exibe um esquema de um sistema de distribuição típico.
Figura 2.4 Distribuição elétrica no data center
Fonte: (Marin, 2011)
22
2.2.1 Alimentação, Grupo Gerador e Chaves de Transferência
Tipicamente, as concessionárias disponibilizam aos sites energia elétrica em corrente
alternada, na tensão de 13,8kV. A forma mais segura de instalação dos alimentadores é por via
subterrânea, onde os conduítes corrugados com proteção mecânica em aço são concretados sob
o solo, sendo o único tipo permitido em locais tier 3 e 4. A partir de então, os cabos de
alimentação devem entrar no data center e alimentar o transformador ou a subestação da
edificação a fim de conseguir os níveis de baixa tensão desejados.
O grupo gerador, composto por geradores movidos a diesel, é responsável por suportar
a carga total no evento de falha da concessionária. Os geradores podem ser instalados em
configuração distribuída ou paralela, mas para conseguir classificação tier 3 ou 4 é preciso que
estejam instalados em paralelo para garantir os níveis de redundância.
A comutação entre a energia proveniente da concessionária e do grupo gerador é feita
por meio de uma chave de transferência automática (ATS - Automatic Transfer Switch). Quando
a fonte de alimentação principal falha, a ATS envia um comando de partida para o gerador. No
momento que a energia fornecida pelo gerador atingir a frequência e tensão adequadas, a chave
conecta o sistema de distribuição ao gerador.
Há basicamente quatro tipos de chaves de transferência, cabendo ao projetista selecionar
o dispositivo que mais se adequa aos requisitos do sistema elétrico e do orçamento disponível.
São eles:
Transição aberta: São os dispositivos mais simples, baratos, e em muitos casos,
eficientes. Essa chave desconecta a carga completamente durante a comutação,
sendo necessária a utilização de outros dispositivos para manter a carga durante
a transição.
Transição fechada rápida: Com esse tipo de chave, a concessionária e o gerador
são mantidos conectados ao sistema de distribuição do data center por um
período de 100ms a 1 minuto, dependendo da concessionária e do projeto. Seu
benefício é a não interrupção da alimentação à carga, porém esse dispositivo
requer um controle mais preciso se comparado ao modelo de transição aberta.
Transição fechada lenta: Esse dispositivo mantém a concessionária e o gerador
conectados à carga por um período mais longo (até um ou dois minutos),
causando menos distúrbios na rede de distribuição, e necessitando um maior
controle de comutação e sequência de operação mais complexa do sistema
elétrico.
23
Transição por ciclo: São chaves que desconectam a concessionária e conectam
o gerador em menos de um quarto do ciclo elétrico, de forma que a carga não
é afetada pela comutação. Por serem dispositivos complexos e de custo
elevado, não são muito utilizados para comutação de sistemas geradores.
A Figura 2.5 traz exemplos reais de transformadores, geradores e chaves de
transferência. (MARIN, 2011)
Figura 2.5 Exemplos transformador, gerador e ATS, respectivamente
Fonte: (Marin, 2011)
2.2.2 Sistema de UPS
Conforme explicado anteriormente, a alimentação das cargas de TI deve ser sempre
assegurada em caso de falhas na rede elétrica da concessionária, tanto para faltas de energia,
quanto para problemas de qualidade da energia, daí a necessidade da existência de geradores.
No entanto, o acionamento do gerador e o chaveamento das fontes levam um tempo para
ocorrer, deixando as cargas sem energia durante esse período. Para que isso não ocorra são
utilizados os nobreaks, dispositivos que possuem baterias capazes de suportar a carga por um
período de tempo.
Existem diferentes topologias de UPS, cada um com características diferentes. Nas
próximas seções serão abordados os tipos mais comuns, de forma simplificada.
2.2.2.1 UPS Off-line (ou Standby)
É a configuração mais simples que existe, pequeno, com alta eficiência e de baixo custo,
é usado apenas para baixas potências. Conforme a Figura 2.6, possui uma chave de transferência
24
programada para utilizar como fonte primária a entrada CA (Corrente Alternada) vinda da rede
e passando por um filtro. Caso haja um defeito na fonte primária, essa chave comuta para o
modo bateria/inversor. Existe um tempo de transferência causado pela chave, porém não
perceptível à carga.
Figura 2.6 Nobreak Off-line
Fonte: (RASMUSSEN, 2011)
2.2.2.2 UPS Interativo
Nobreak interativo é um dos mais utilizados em pequenas empresas e para faixas de
potência até 5kVA. A Figura 2.7 mostra o esquema de seu funcionamento. Nessa configuração,
um único conversor realiza as funções de carregador de baterias, condicionador de tensão e
inversor. Enquanto a rede principal está presente, esta é condicionada pelo conversor, ao mesmo
tempo em que mantém as baterias carregadas. A frequência de entrada e saída são iguais.
Quando a rede primária falha, a energia é suprida através das baterias. Como esse modelo
também funciona por meio de uma chave de transferência, o tempo de comutação, apesar de
pequeno, existe.
Figura 2.7 Nobreak Interativo
Fonte: (RASMUSSEN, 2011)
25
2.2.2.3 UPS de Dupla Conversão
É o tipo mais comum de nobreak dentro dos data centers. Possui o mesmo diagrama de
blocos que a topologia off-line, porém o circuito primário se dá através do retificador e inversor.
A tensão de entrada, representada pela Figura 2.8, é constantemente convertida em CC
(Corrente Contínua) pelo retificador e depois convertida novamente em CA pelo inversor,
fazendo com que a saída possua sempre ótima qualidade. Nesse caso não existe tempo de
transferência; quando a rede CA falha, a energia passa a ser proveniente das baterias. Uma das
desvantagens desse sistema é possuir uma eficiência baixa comparada às outras topologias.
Atualmente a maioria desses UPSs têm em torno de 95% de eficiência no modo dupla
conversão.
Figura 2.8 Nobreak Dupla Conversão
Fonte: (RASMUSSEN, 2011)
2.2.2.4 UPS Rotativo (ou Flywheel)
Este modelo é usado em aplicações que admitem um tempo de transferência curto em
caso de falta de energia da concessionária. Sua autonomia é da ordem de segundos ou poucos
minutos e sua principal diferença em relação às topologias anteriores é a não utilização de
baterias. A Figura 2.9 mostra o diagrama de blocos dos sistema rotativo.
Durante o fornecimento normal de energia da rede, o nobreak rotativo atua como um
motor, armazenando energia cinética no acumulador. No momento em que a rede elétrica falha,
a energia cinética armazenada é transferida para o estator-alternador, atuando como um gerador
e fornecendo energia à carga até o momento que o motor à diesel possa ser acoplado. A Figura
2.10 mostra as duas etapas de funcionamento. O uso desse tipo de nobreak se torna mais
26
vantajoso técnica e economicamente conforme a potência é aumentada, o que acontece a partir
de aproximadamente 500kVA. (MCCLUER; CHRISTIN, 2011)
Figura 2.9 Nobreak rotativo
Fonte: (MARIN, 2011)
Figura 2.10 Funcionamento do nobreak rotativo
Fonte: (EURO-DIESEL, 2010)
2.2.3 Quadros elétricos e PDUs
O termo PDU é utilizado na maioria das vezes para se referir aos equipamentos de
distribuição de energia alocados dentro da sala de computadores, sendo o quadro elétrico usado
como referência ao quadro de distribuição principal. Uma PDU pode ir tanto de uma régua de
tomada utilizada para conectar os ativos de TI dentro do rack, quanto um equipamento mais
sofisticado montado em um gabinete. A Figura 2.11 traz alguns exemplos de PDUs: tradicional,
modular e régua de tomada, respectivamente.
27
Figura 2.11 Exemplos de PDU
Fonte: (HU, 2015)
2.3 SISTEMA DE CLIMATIZAÇÃO
Todos os equipamentos presentes na sala de computadores, como qualquer componente
eletrônico, dissipam energia em forma de calor3 e, quando permanecem em operação de forma
constante, esse calor começa a ultrapassar a temperatura tolerada pelo equipamento, já que os
mesmos são projetados para operar em faixas determinadas de temperatura e umidade. Um
dispositivo eletrônico funcionando fora das especificações recomendadas pelo fabricante terá
sua vida útil reduzida e a performance comprometida; servidores, por exemplo, podem
apresentar lentidão, travamentos e reinicializações inesperadas, queimar ou até se auto desligar.
Essas consequências são inadmissíveis em ambientes de missão crítica como os data centers, e
por isso um bom sistema de climatização dos ambientes é tão importante quanto o sistema
elétrico apresentado na seção 2.2. A infraestrutura do data center precisa garantir os aspectos
de disponibilidade e confiabilidade das cargas de TI e isso não se resume a qualidade da energia
elétrica entregue às cargas.
O projeto de um sistema de climatização, ou sistema HVAC (Heat, Ventilatin and Air
Conditioning – aquecimento, ventilação e condicionamento de ar) leva em consideração
principalmente, o tamanho da sala, densidade de carga (kW por rack), localização da sala no
edifício e característica do piso elevado.
Entendida a necessidade do uso de equipamentos de ar condicionado nos ambientes de
data center, deve-se esclarecer as diferenças entre o chamado ar condicionado de conforto e o
ar condicionado de precisão.
3 99% da energia usada para alimentar os equipamentos de TI é transformada em calor. (MARIN, 2011)
28
2.3.1 Ar condicionado de conforto v.s. Ar condicionado de precisão
Ar condicionado de conforto é o equipamento comum, utilizado em residências,
escritórios, edifícios de comércio, serviços e etc. Ele é projetado para atender as necessidades
físicas de um ambiente voltado para as pessoas.
Equipamentos de precisão são especialmente produzidos para ambientes em que seja
necessário o controle de ventilação com exatidão. No caso dos data centers, não só a
temperatura precisa ser controlada com rigor, já que equipamentos eletrônicos são sensíveis a
variações bruscas de temperatura, como também os níveis específicos para a umidade relativa,
qualidade e fluxo do ar.
Umidade relativa muito alta pode potencializar a corrosão devido a condensação da
água; baixa umidade relativa aumenta o potencial de carga estática, aumentando a probabilidade
de uma descarga. O ar com muitas partículas em suspensão pode potencializar danos
localizados e descargas eletrostáticas. Logo, o fluxo de ar deve garantir a homogeneidade da
temperatura e da umidade.
O Quadro 2 traz as principais diferenças entre unidades de ar condicionado de precisão
e de conforto.
Quadro 2 –Principais diferenças entre ar condicionado de conforto e de precisão
Característica
Ideal para
data center
Ar condicionado
de precisão
Ar condicionado de
conforto
Fator de calor sensível4
(controle de temperatura)
1 0,95-0,99 0,65-0,70
Fator de calor latente
5(extração de umidade)
0 0,01-0,05 0,05-0,30
Variação de temperatura
Quanto ↓
melhor
0,56°C
Depende das
condições de
aplicação
Variação de umidade
relativa
Quanto ↓
melhor
3-5% Não se aplica
4 Calor sensível é responsável pelo aumento da temperatura e é gerado por máquinas, iluminação e pessoas. (APC
WP 56)
5 Calor latente é responsável pelo aumento da umidade relativa e é dissipado pela transpiração do corpo humano.
(APC 56)
29
Taxa de circulação de ar
(por kW)
Quanto ↑
melhor
271m3/h 144m3/h
Sensor de temperatura
Na entrada do
servidor
Na entrada do
servidor
Controle remoto ou
na entrada do ar de
retorno
Qualidade do ar
Poucas
partículas em
suspensão
Filtro de altas
pregas e alta
eficiência
Filtro simples
Tempo de operação
ininterrupto (ano)
7 x 24 x 365
8.760 horas
7 x 24 x 365
8.760 horas
5 x 8 x 240
1.200 horas
Fonte: (Lange, 2015)
2.3.2 Ciclo básico da refrigeração
A retirada do calor de dentro do data center é feita usando-se o ciclo de refrigeração,
mesmo processo utilizado por mais de 100 anos; a Figura 2.12 apresenta um esquema simples.
O ar quente do ambiente entra em contato com o evaporador, uma serpentina por onde está
passando o fluido refrigerante composto por uma mistura de líquido e vapor. Nesse momento,
ocorre a troca de calor entre eles, fazendo com que o fluido se vaporize completamente, e em
seguida passe pelo compressor, que o comprime e o bombeia até o condensador. No
condensador, que também é uma serpentina, ocorre a segunda troca térmica, na qual o fluido
em estado de vapor e alta temperatura, liberando energia para o meio externo, volta a se
liquidificar, porém ainda com uma alta temperatura e pressão. Nesta última fase, o fluido passa
pela válvula de expansão, onde ocorre uma redução da pressão e, consequentemente, da
temperatura. E assim, o ciclo se repete. (EVANS, 2012)
30
Figura 2.12 Ciclo básico de refrigeração
Fonte: (CEFET-SC- PROJETO INTER-RED, 2008)
Os sistemas de ar condicionado nos data centers podem ser, basicamente, de dois tipos:
expansão direta e água gelada. Expansão direta é o ciclo básico de refrigeração da Figura 2.12,
em que o próprio fluido refrigerante faz a troca com o ar tratado. O sistema de água gelada é
uma expansão indireta em que existe um fluido intermediário, no caso a água. O fluido
refrigerante resfria a água em um equipamento chamado chiller, a água resfriada vai para os
fan coils, que são serpentinas por onde passará a água que absorverá o calor do ambiente tratado.
A escolha entre equipamentos do tipo expansão direta ou refrigerados à água depende
de muitos fatores, como por exemplo, o local da aplicação, se o edifício já possui um chiller ou
não, a capacidade necessária (água gelada atinge maiores capacidades), a decisão do gestor em
levar ou não a tubulação de água para dentro do data center, as distâncias entre as unidades
internas e externas. Ou seja, a escolha do tipo do equipamento deve ser feita caso a caso pelo
projetista.
2.3.3 Localização da unidade de refrigeração
Há quatro principais formas de posicionamento para as unidades de ar condicionado
dentro da sala de computadores.
Perimetrais
Por corredor
Por rack
Híbrido
31
Independentemente do tipo configuração usada para a climatização do data center, a
técnica de criar corredores quentes e frios tem sido adotada com frequência, já que separar o ar
quente do frio melhora a eficiência energética, facilita o entendimento do fluxo de ar e do
desempenho das máquinas de ar condicionado. A Figura 2.13 mostra a disposição dos racks e
o fluxo de ar utilizando o conceito de corredores quentes e frios. Também é comum utilizar um
confinamento nos corredores, para garantir que o ar quente não se misture ao frio. Esse
confinamento pode ser tanto em corredores quentes quanto frios, e podem ser aplicado a
qualquer uma das configurações. A Figura 2.14 apresenta um exemplo de solução de
confinamento de corredor quente, já que as frentes dos racks estão para fora, e a Figura 2.15
mostra o esquema de confinamento frio e quente. (DUNLAP, RASMUSSEN, 2012)
Figura 2.13 Corredores quentes e frios
Fonte: (OLIVETEL, 2015)
Corredores quentes e frios
32
Figura 2.14 Solução de confinamento de corredor quente
Fonte: (DUNLAP, RASMUSSEN, 2012)
Figura 2.15 Esquema de confinamento de corredor frio e quente, respectivamente
Fonte: (DUNLAP, RASMUSSEN, 2012)
2.3.3.1 Configuração perimetral
A configuração perimetral define que as unidades de ar condicionado devem atender a
demanda de refrigeração de toda a sala, por isso são equipamentos com maior capacidade. A
Figura 2.16 traz o exemplo de uma sala climatizada somente por equipamentos perimetrais.
Nesse tipo de configuração, o ar pode ser insuflado por baixo do piso ou não, e o retorno do ar
é feito na parte superior da unidade de refrigeração, modelo que pode ser visto na Figura 2.17.
A desvantagem de unidades perimetrais é que não é possível utilizar toda a capacidade de
refrigeração para a carga de TI.
Figura 2.16 Configuração perimetral
Fonte: (ENERGY UNIVERSITY, 2015)
33
Figura 2.17 Unidade perimetral insuflando em corredor frio
Fonte: (ENERGY UNIVERSITY, 2015)
2.3.3.2 Configuração por corredor
Nesta arquitetura, as unidades de ar condicionado são associadas e dedicadas a apenas
um corredor. Como o caminho do fluxo de ar é bem definido, é possível utilizar toda a
capacidade de refrigeração da unidade. A potência do ventilador é reduzida, pois o trajeto que
o ar deverá fazer é curto, o que aumenta a eficiência energética. É uma configuração
recomendada principalmente quando há altas densidades de carga por rack (mais que 5kW). A
desvantagem do uso de unidade em fileira é que elas ocupam espaço dentro da sala de
computadores, enquanto as unidades perimetrais podem ser instaladas em corredores técnicos.
A Figura 2.18 mostra que o ar é insuflado pela frente da unidade de refrigeração e o retorno é
feito pela parte traseira.
Figura 2.18 Configuração por corredor
Fonte: (SERVER RACKS AUSTRALIA, 2015)
34
2.3.3.3 Configuração por rack
Na refrigeração por rack, as unidade estão associadas e dedicadas a um único rack. É
muito similar à configuração por corredor, porém o percurso do ar é ainda menor e mais
definido, sendo recomendado para racks de alta densidade e importância. Quase sempre é feito
um confinamento desse rack, de modo que a unidade de ar condicionado só influencie a ele. A
Figura 2.19 traz um exemplo disso.
Figura 2.19 Configuração por rack
Fonte: (THE DATA CENTER BLOG, 2015)
2.3.3.4 Configuração híbrida
Neste caso, a configuração é uma combinação das configuração apresentadas
anteriormente e se mostra útil em muitos casos, por exemplo, quando há um range grande de
densidades por rack na sala ou quando se quer aumentar a capacidade em uma instalação
perimetral existente.
Figura 2.20 Configuração híbrida
Fonte: (DUNLAP, RASMUSSEN, 2012)
Ar
condicionado
Rack
35
O Quadro 3 traz as vantagens e desvantagens entre as configurações perimetral, por
corredor e por rack.
Quadro 3 – Comparativo entre as configurações
Fonte: (DUNLAP, RASMUSSEN, 2012)
2.4 AUTOMAÇÃO, SEGURANÇA E PROTEÇÃO CONTRA INCÊNDIOS
Os sistemas de automação, segurança e proteção contra incêndios são fundamentais para
ambientes de missão crítica manterem a disponibilidade exigida. É importante conhecer o
36
estado operacional de cada equipamento em tempo real, pois no caso de algum evento
inesperado (falhas em equipamentos, operação fora dos parâmetros definidos e etc.), o gestor
do data center terá como identificar o problema e tomar as ações necessárias o mais rápido
possível, minimizando a questão.
Os sistemas de automação do edifício devem estar equipados com controle de acesso,
sistemas de alarme, controle de portas, CFTV (Circuito fechado de TV), monitoramento de
iluminação, entre outros.
Os requisitos de proteção contra incêndio devem seguir, primeiramente, a legislação
local. Precisa ser capaz de detectar o incidente (sensores de fumaça, calor e fogo), suprimir o
fogo, utilizando sprinklers, que são sistemas com água ou gases inertes não inflamáveis, como
por exemplo o FM-200. (MARIN, 2011)
Tais subsistemas são importantes para garantir que a operação do data center ocorra
sempre da melhor forma, garantindo a disponibilidade e a segurança dos dados e aplicações que
nele estão presentes.
37
3 EFICIÊNCIA ENERGÉTICA EM DATA CENTERS
Atualmente, a preocupação com o consumo energético é constante no mundo todo,
independentemente do setor, devido ao aspecto ambiental, mas principalmente às questões
financeiras.
No Brasil tal preocupação é ainda maior, já que o país possui uma das tarifas de energia
mais caras do mundo. A Figura 3.1 mostra a evolução do custo de energia elétrica para a
indústria até 2015. Pode-se ver que a projeção feita em 2014 para 2015 e 2016, Figura 3.2, já
foi ultrapassada ainda no primeiro semestre de 2015. (MING, 2014; MING, 2015)
Figura 3.1 Tarifa de energia média para a indústria no mundo
Fonte: (MING, 2015)
Figura 3.2 Evolução da tarifa de energia elétrica para a indústria
Fonte: (MING, 2014)
38
Considerando que os data center são grandes consumidores da energia elétrica produzida
no mundo, e que seu consumo deve seguir crescendo juntamente com a construção de novos
locais, todos os esforços voltados para a redução do consumo energético, e consequentemente
a melhoria da eficiência, são muito significativos.
Segundo Lange (2014), a climatização do ambiente é responsável por, aproximadamente,
40-45% do consumo de energia elétrica do data center, ficando atrás somente do consumo da
energia dos servidores. Dessa forma, qualquer ganho de eficiência no sistema de refrigeração
trará resultados importantes de melhoria nos custos com energia ao longo do ano.
3.1 MÉTRICAS DE AVALIAÇÃO DE EFICIÊNCIA
Existem algumas iniciativas para avaliar os data centers com base em seu consumo
energético. A instituição Ther Green Grid, organização sem fins lucrativos que busca tratar de
eficiência energética em data centers, propôs duas das métricas mais utilizadas atualmente, o
PUE (Power Usage Effectieness – Eficácia do uso da energia) e o DCE (Data Center Efficiency
– Eficiência do data center).
3.1.1 PUE e DCE
O PUE é o índice mais usado para avaliar a eficiência energética de um data center e é
definido pela carga total do data center dividida pela carga de TI, conforme equação (3).
(MARIN, 2011)
𝑃𝑈𝐸 =
𝐶𝑡𝑜𝑡𝑎𝑙
𝐶𝑇𝐼
(3)
Sendo:
𝐶𝑡𝑜𝑡𝑎𝑙 A carga total do site, geralmente dada em kVA.
𝐶𝑇𝐼 A carga consumida pelos ativos de TI, também dada em kVA.
Portanto, o PUE é um número absoluto, sendo 1 seu valor mínimo. Quanto mais próximo
de 1, melhor a eficiência do data center.
O PUE se popularizou bastante e é hoje usado como uma forma de marketing, fazendo com
que algumas empresas acabem manipulando o índice para parecer melhores do que realmente
são, medindo o consumo em momentos específicos, por exemplo. Dessa forma é difícil saber
se os valores divulgados são reais. A Uptime Institute divulgou resultados de uma pesquisa feita
39
em 2014, Figura 3.3, mostrando a média de PUE dos grandes data centers no mundo.
(DONNELLY, 2015)
Figura 3.3 Média de PUE de grandes data center no mundo
Fonte: (UPTIME INSTITUTE, 2014)
O objetivo do PUE é dar aos próprios gestores do data center o conhecimento sobre a
eficiência do site, e assim serem capazes de tomar decisões que posam reduzir seus custos. A
forma mais precisa de medição é utilizar softwares de gerenciamento de infraestrutura de data
center, que fazem leituras constantes de consumo e cargas de TI, mostrando, em tempo real, o
valor do PUE.
O índice DCE, menos utilizado, é o inverso do PUE, conforme a equação (4), de forma
que seu melhor valor é o mais próximo de 1 possível. (MARIN, 2011)
𝐷𝐶𝐸 =
𝐶𝑇𝐼
𝐶𝑡𝑜𝑡𝑎𝑙
(4)
Sendo:
𝐶𝑡𝑜𝑡𝑎𝑙 A carga total do site, geralmente dada em kVA.
𝐶𝑇𝐼 A carga consumida pelos ativos de TI, também dada em kVA.
3.2 SOLUÇÕES PARA AUMENTO DA EFICIÊNCIA ENERGÉTICA
O primeiro passo é, obviamente, adquirir equipamentos que possuam boa eficiência
energética. Porém, existem outras formas de melhorar o desempenho energético de um site,
mesmo quando a infraestrutura do mesmo já é existente.
3.2.1 Redução do consumo dos equipamentos de TI
Representando o maior consumidor de energia do data center, os ativos de TI são,
certamente, uma boa forma de começar a reduzir o consumo. Além desse fato, a infraestrutura
40
do data center é dedicada ao funcionamento dos mesmo, portanto, reduzir o consumo de cargas
de TI reduz indiretamente o consumo com climatização e alimentação.
Algumas abordagens possíveis são:
Aposentar equipamentos antigos
Desativar servidores inativos
Virtualização
Correto dimensionamento
3.2.2 Redução do consumo com climatização
A adoção de corredores quentes e frios traz significativos resultados, ainda mais se for
realizado o confinamento de corredores. É importante também vedar qualquer abertura nos
racks para não ocorrer a passagem de ar e a mistura do quente com o frio. (MARIN,2011)
A escolha da temperatura ideal da sala de computadores é relevante, pois quanto mais
baixa, maior o consumo dos equipamentos de ar condicionado. A instituição mais conhecida
que rege a climatização de ambientes de data center é a ASHRAE (American Society of Heating,
Refrigerating and Air-Conditioning Engineers - Associação Americana de Engenheiros de
Aquecimento, Refrigeração e Ar Condicionado), e em 2008 houve um flexibilização dos
valores de temperatura recomendados para as salas de computadores, senso aceitável o intervalo
entre 18ºC a 27ºC. Atualmente, a maioria dos data centers opera em torno de 20ºC a 24ºC, então
há espaço para melhorias.
Reduzir a recirculação também traz benefícios energéticos. Ela ocorre quando o ar frio
retorna ao equipamento de ar condicionado sem ter realizado a troca térmica necessária. Isso
faz com que a diferença entre a temperatura de retorno do ar e a temperatura do fluido
refrigerante que circula no evaporador seja mais baixa. Quanto menor essa diferença, pior será
a eficiência e a troca de calor. Essa é a mesma razão pela qual deve-se evitar a mistura de ar
quente e frio. (Lange, 2015)
Existe ainda a técnica de freecooling, que consiste em aproveitar o ar frio externo para
realizar a refrigeração. Existem, basicamente, dois tipos de freecooling, direto e indireto. O
direto se dá quando se coloca o próprio ar externo dentro da sala de computadores, o que exige
realizar filtragens e ajustes na umidade do ar antes de inseri-lo no ambiente crítico. O método
indireto ocorre ao utilizar o ar externo para resfriar o fluido refrigerante ou a água.
41
A princípio, o freecooling parece funcionar somente em regiões frias, porém ele
necessita apenas de 10 a 15ºC de diferença entre as temperaturas externa e de retorno do ar
condicionado. Além de ser possível utilizar métodos de freecooling parcial, em que parte do
sistema consegue ser resfriada com o ar externo, pode-se utilizar, em conjunto, o sistema de ar
condicionado principal.
Dessa forma, é possível utilizar esse método para reduzir o consumo energético do
sistema de climatização em muitos locais do mundo.
42
4 OS DATA CENTERS DO FUTURO – TENDÊNCIAS
Sabendo que a necessidade por internet e dados só irá aumentar nos próximos anos, surgem
algumas tendências para a infraestrutura dos data centers.
Apesar de já serem realidade, os softwares de gerenciamento de infraestrutura de data
center se tornarão cada vez mais populares, já que permitem um profundo conhecimento do que
está acontecendo no site em tempo real e ainda fornecem recomendações de quais ações podem
ser tomadas para melhorar a eficiência energética, evitar problemas de capacidade de energia,
refrigeração e TI, além de ajudar a planejar mudanças físicas dentro da sala de computadores,
gerar relatórios, entre outros recursos.
As energias alternativas também serão aproveitadas, reduzindo os gastos com consumo
elétrico. A Algar Tech, por exemplo, inaugurou no primeiro semestre de 2015, o primeiro data
center abastecido com energia solar fotovoltaica da América Latina. (ALGAR TECH, 2015)
O índice PUE deverá se tornar cada vez mais importante, juntamente com outras métricas,
como pegada de carbono e consumo de água, irão se difundir.
Iniciativas na área de climatização também deverão ocorrer, como por exemplo a expansão
de técnicas de freecooling e a viabilização do uso de liquid cooling (resfriamento por
submersão) que, como mostrado na Figura 4.1, é refrigerar os servidores imergindo-os em um
líquido específico para esse fim.
Figura 4.1 Resfriamento por submersão
Fonte: (JONES, 2012)
Data centers pré-fabricados ganharão espaço no mercado, pois possuem alta velocidade
de implantação, além de poderem ser colocados em espaços abertos. São containers, como a
43
Figura 4.2, que podem ser customizados conforme a necessidade, com capacidade de abrigar
toda a infraestrutura de TI ou sistemas de distribuição ou climatização. (SATUDI, 2015)
Figura 4.2 Data center pré-fabricado
Fonte: (SCHNEIDER ELECTRIC, 2015)
O uso dos discos de estado sólido (SSD – Solid State Driver) deverá se expandir na
medida em que forem ficando mais baratos, já que suas vantagens técnicas como velocidade,
performance e durabilidade são indiscutíveis. (O'REILLY, 2015)
44
5 ESTUDO DE CASO
Com o intuito de exemplificar alguns dos temas abordados nos capítulos anteriores, uma
pequena solução da sala de computadores de um empresa no interior do estado de São Paulo
será mostrada. O projeto foi feito por uma empresa multinacional especializada no setor, no
primeiro semestre de 2015.
A empresa possuía uma sala retangular de dimensões 8,4m x 10 m, porém precisava de
uma solução completa para apenas oito racks de baixa densidade (1,6 kW e 3,0kW) no
momento, o espaço não utilizado seria reservado para futuras expansões de capacidade.
Foi adotado o confinamento de corredor quente, ar condicionado na configuração em fileira
e sistema UPS modular, ou seja, possui módulos de potência independentes que podem assumir
a carga no caso de um módulo falhar. A Figura 5.1 mostra o layout da sala.
Figura 5.1 Layout da sala de computadores
Fonte (VIERA, 2015)
A carga total do ambiente é de, aproximadamente, 20kW. Sendo a capacidade total do
UPS de 40kW e a de cada unidade de ar condicionado, refrigerado a ar, de 10kW. O
confinamento do corredor quente é feito um produto específico para esse fim, que possui porta
com fechadura, sistemas de iluminação e proteção contra incêndio Também faz parte da solução
os dispositivos de segurança e controle ambiental, nesse caso câmeras de segurança, sensores
45
de temperatura e software de gerenciamento. O valor total desse projeto, incluindo os serviços
para montagem e instalação, foi de 516 mil reais. A Figura 5.2 permite visualizar a sala em 3
dimensões.
Figura 5.2 Projeto da sala de computadores em 3D
Fonte (VIERA, 2015)
46
6 CONSIDERAÇÕES FINAIS
Este trabalho tinha como objetivo apresentar um estudo, baseado em pesquisa
bibliográfica, sobre a infraestrutura necessária para a operação de um data center.
No segundo capítulo foram abordados os conceitos de disponibilidade e confiabilidade,
classificações tier e os principais elementos da infraestrutura de um data center, apresentando
de forma mais detalhada os sistemas elétrico e de refrigeração.
O capítulo três explorou a questão da eficiência energética, apresentando o índice PUE e
explicando algumas formas de aumentar a eficiência do data center. A questão ambiental ainda
não é o fator pelo qual as empresas buscam melhores valores de PUE, mas isso tende a mudar
com o passar dos anos. Os temas de sustentabilidade estão ganhando cada vez mais força e já
existem métricas para avaliar a pegada de carbono e o consumo de água dos data centers, dessa
forma será necessário que as companhias se adaptem às questões ambientais se quiser
sobreviver no futuro.
O capítulo quatro trouxe algumas das principais tendências com impactos na infraestrutura
dos data centers no futuro, e a maioria delas será simplesmente a implementação de tecnologias
que já existem mas ainda não são viáveis para aplicação nesses ambientes.
É interessante ressaltar que o mercado brasileiro se mostra mais conservador com relação
à mudanças como freecooling e operação com temperatura da sala de computadores maior em
comparação com outros países. Então algumas das tendências mencionadas no último capítulo
já estão muito mais desenvolvidas nesses lugares.
No estudo de caso, foi possível perceber que os conceitos tratados neste trabalho são
aplicados em casos reais e que, em muitos casos, o data center não precisa ser um espaço grande
com muitos servidores, e sim um lugar que atenda às necessidades da empresa.
O Brasil possui metade dos data center de toda a América Latina e o mercado ainda assim
possui espaço para crescimento, principalmente nas regiões Norte e Nordeste.
Seria interessante, para uma próxima ocasião, abordar de forma mais profunda os sistemas
apresentados nesse trabalho, como por exemplo, entrar no detalhe dos elementos internos do
UPS e entender as questões práticas envolvidas na escolha do sistema de refrigeração. Também
é possível realizar um estudo de como é feita a união entre a área de TI e a infraestrutura do
data center.
47
7 REFERÊNCIAS BIBLIOGRÁFICAS
ALGAR TECH. Conheça nosso projeto de TI verde. 2015. Disponível em
Acesso em 13 dec.
2015.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 5462: Confiabilidade e
mantenabilidade. Rio de Janeiro, 1994.
BARNETT, Thomas. The Dawn of the Zettabyte Era [INFOGRAPHIC]. 2011. Disponível
em Acessado em 11
nov. 2015.
BIT MAGAZINE. Lopes investe em novo data center com tecnologia Dell. 2014.
Disponível em Acesso em 07 dec. 2015
CEFET-SC - PROJETO INTER-RED. Ciclo de um sistema de refrigeração. 2008. Disponível
em
Acesso em 10 dec. 2015
CISCO. The Zettabyte Era: Trends and Analysis. 2015. Disponível em
Acesso em 15 set. 2015
DOMO. Data Never Sleeps 3.0. Disponível em < https://www.domo.com/blog/2015/08/data-
never-sleeps-3-0/ > Acesso em 15 set. 2015.
DONNELLY, Caroline. Datacentre PUE: Who's keeping score?. 2015. Disponível em <
ttp://www.computerweekly.com/feature/Datacentre-PUE-Whos-keeping-score> Acesso em 12
dec. 2015.
DUNLAP, Kevin; RASMUSSEN, Neil. Como escolher entre refrigeração perimetral, por
corredor e por rack para data center. 2012. Disponível em
Acesso
em 10 dec. 2015.
ENERGY UNIVERSITY. Advantages of Row and Rack-Oriented Cooling Architectures
II. Disponível em Acesso em 11 dec. 2015.
http://www.algartech.com/pt-br/blog/conheca-nosso-projeto-de-ti-verde/
http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-networking-index-vni/VNI_Hyperconnectivity_WP.html
http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-networking-index-vni/VNI_Hyperconnectivity_WP.html
http://www.apcmedia.com/salestools/VAVR-6J5VYJ/VAVR-6J5VYJ_R2_BR.pdf
http://www2.schneider-electric.com/corporate/en/products-services/training/energy-university/data-center.page
http://www2.schneider-electric.com/corporate/en/products-services/training/energy-university/data-center.page
48
EURO-DIESEL. Como funciona: descrição de operação. 2010. Disponível em
Acesso em 6
dec. 2015.
EVANS, Tony. The Different Technologies for Cooling Data Centers. 2012. Disponível em
Acesso em 10 dec. 2015.
GAINESVILLEDATACENTER Disponível em Acesso em 7 dec. 2015
HU, Pearl. Electrical Distribution Equipment in Data Center Environments. 2015.
Disponível em Acesso em 6 dec. 2015.
IBM KNOWLEDGE CENTER. Decidir qual o nível de disponibilidade de que necessita.
Disponível em Acesso em 05 dec. 2015.
JONES, Penny. Para Intel, líquido e servidores podem se misturar. 2012. Disponível em
Acesso em 13 dec. 2015.
LANGE, Milena G. Como a instalação do ar condicionado de precisão pode contribuir
para a eficiência energética do Data Center. 2015. Disponível em
Acesso em 10 dec. 2015.
LANGE. Milena G. Dúvida ar de confortoxprecisão [mensagem pessoal]. Mensagem
recebida por . 10 dec. 2015
LERNER, Andrew. The Cost of Downtime. 2014. Disponível em
Acesso em 04
nov. 2015
http://www.gainesvilledatacenter.com/data-center/
http://www.gainesvilledatacenter.com/data-center/
https://blog-br.schneider-electric.com/gestao-de-energia-eficiencia-energetica/2015/05/15/como-a-instalacao-do-ar-condicionado-de-precisao-pode-contribuir-para-a-eficiencia-energetica-do-data-center/
https://blog-br.schneider-electric.com/gestao-de-energia-eficiencia-energetica/2015/05/15/como-a-instalacao-do-ar-condicionado-de-precisao-pode-contribuir-para-a-eficiencia-energetica-do-data-center/
https://blog-br.schneider-electric.com/gestao-de-energia-eficiencia-energetica/2015/05/15/como-a-instalacao-do-ar-condicionado-de-precisao-pode-contribuir-para-a-eficiencia-energetica-do-data-center/
https://blog-br.schneider-electric.com/gestao-de-energia/2014/10/21/contribuicao-da-climatizacao-na-eficiencia-energetica-data-center/
https://blog-br.schneider-electric.com/gestao-de-energia/2014/10/21/contribuicao-da-climatizacao-na-eficiencia-energetica-data-center/
http://blogs.gartner.com/andrew-lerner/2014/07/16/the-cost-of-downtime/
49
MARIN, Paulo S. Data Centers: Desvendando Cada Passo: Conceitos, Projeto,
Infraestrutura Física e Eficiência Energética. 1. ed. São Paulo: Érica, 2011. 320 p.
MCCLUER, Stephen; CHRISTIN, Jean-Francois. Comparing Data Center Batteries,
Flywheels and Ultracapacitors. 2011. Disponível em
Acesso em 6
dec. 2015.
MING, Celso. Asfixia tarifária. 2015. Disponível em
Acesso em 12 dec. 2015.
MING, Celso. Melhor para os chineses. 2014. Disponível em
Acesso em 12
dec. 2015
OLIVITEL. Introdução Soluções Data Center. Disponível em
Acesso em 11 dec.2015.
O'REILLY, Jim. A clear vision of the future data center in 2020. 2015. Disponível em
Acesso em 13 dec. 2015.
RASMUSSEN, Neil. The Different Types of UPS Systems, White Paper 1. 2011. Disponível
em Acesso
em 06 dec. 2015.
SATUDI, Alan K. Schneider Electric dá a receita para crescer na contramão da crise. 2015.
Disponível em Acesso em 13 dec.
2015.
SCHNEIDER ELECTRIC. High Density Scalable Water Cooled Large Data Center.
Disponível em < http://www.apc.com/solutions/us/en/solution/high-density-scalable-water-
cooled-large-data-center/> Acesso em 7 dec.2015.
SCHNEIDER ELECTRIC. Prefrabricated data center modules. Disponível em
Acesso em 13 dec. 2015.
http://economia.estadao.com.br/blogs/celso-ming/asfixia-tarifaria/
http://www.olivetel.pt/catalogo/?cat=48
http://searchdatacenter.techtarget.com/opinion/A-clear-vision-of-the-future-data-center-in-2020
http://searchdatacenter.techtarget.com/opinion/A-clear-vision-of-the-future-data-center-in-2020
http://www.apc.com/solutions/us/en/solution/high-density-scalable-water-cooled-large-data-center/
http://www.apc.com/solutions/us/en/solution/high-density-scalable-water-cooled-large-data-center/
50
SERVER RACKS AUSTRALIA. Server Rack Heat Dissipation in Next Generation In-Row
Architectures. Disponível em Acesso em 11 dec. 2015.
SVERDLIK, Yevgeniy. IDC: Amount of World’s Data Centers to Start Declining in 2017.
2014. Disponível em < http://www.datacenterknowledge.com/archives/2014/11/11/idc-
amount-of-worlds-data-centers-to-start-declining-in-2017/> Acessado em 17 out 2015.
THE DATA CENTER BLOG. APC Inrow 30KW cooling. Disponível em
Acesso em 11 dec. 2015.
UOLDIVEO. Big data, nuvem e plataforma móvel ditarão futuro da Internet. 2015.
Disponível em Acesso em 23 set. 2015.
UPTIME INSTITUTE. 2014 Data Center Industry Survey. 2014. Disponível em
Acesso em 12 dec.
2015.
VARGAS, Maria. 10 Facts to Know About Data Centers. 2014. Disponível em
Acessado em 17 out. 2015
VIEIRA. Alexander. Projeto ISX [mensagem pessoal]. Mensagem recebida por
. 13 dec. 2015
http://www.server-racks-australia.com.au/technical_information/WP%20white%20paper%20inrow%20cooling%20V1.4.pdf
http://www.server-racks-australia.com.au/technical_information/WP%20white%20paper%20inrow%20cooling%20V1.4.pdf
http://www.server-racks-australia.com.au/technical_information/WP%20white%20paper%20inrow%20cooling%20V1.4.pdf
http://www.datacenterknowledge.com/archives/2014/11/11/idc-amount-of-worlds-data-centers-to-start-declining-in-2017/
http://www.datacenterknowledge.com/archives/2014/11/11/idc-amount-of-worlds-data-centers-to-start-declining-in-2017/
http://www.uoldiveo.com.br/noticias-e-eventos/2015/09/25/big-data-nuvem-e-plataforma-movel-ditarao-futuro-da-internet.html#rmcl
http://www.uoldiveo.com.br/noticias-e-eventos/2015/09/25/big-data-nuvem-e-plataforma-movel-ditarao-futuro-da-internet.html#rmcl
https://journal.uptimeinstitute.com/2014-data-center-industry-survey/
http://energy.gov/eere/articles/10-facts-know-about-data-centers