ALINE BEATRIZ GONZALEZ FRIGO INFRAESTRUTURA DE DATA CENTER E SUAS TENDÊNCIAS COM FOCO EM EFICIÊNCIA ENERGÉTICA Guaratinguetá 2015 ALINE BEATRIZ GONZALEZ FRIGO INFRAESTRUTURA DE DATA CENTER E SUAS TENDÊNCIAS COM FOCO EM EFICIÊNCIA ENERGÉTICA Guaratinguetá 2015 Trabalho de Graduação apresentado ao Conselho de Curso de Graduação em Engenharia Elétrica da Faculdade de Engenharia do Campus de Guaratinguetá, Universidade Estadual Paulista, como parte dos requisitos para obtenção do diploma de Graduação em Engenharia Elétrica. Orientador: Prof. Dr. Leonardo Mesquita F912i Frigo, Aline Beatriz Gonzalez Infraestrutura de data center e suas tendências com foco em eficiência energética / Aline Beatriz Gonzalez Frigo – Guaratinguetá, 2015. 50 f : il. Bibliografia: f. 47-50 Trabalho de Graduação em Engenharia Elétrica – Universidade Estadual Paulista, Faculdade de Engenharia de Guaratinguetá, 2015. Orientador: Prof. Dr. Leonardo Mesquita 1. Estruturas de dados (Computação) 2. Energia - Conservação 3. Computação em nuvem 4. Banco de dados bibliográficos I. Título CDU 681.3.4 De modo especial aos meus pais, Andrea e Ítalo, e à minha irmã Fernanda, que recentemente chegou a este mundo. AGRADECIMENTOS Primeiramente agradeço à minha família, meus pais Andrea e Ítalo, meu padrasto Romerito e minha madrasta Flavia, por todo o empenho para que eu chegasse até aqui, por estarem sempre presentes, me apoiando e me incentivando. À minha prima Erica, que mesmo vivendo muito longe, me acompanhou de perto em pensamento e coração. Agradeço às minhas amigas e grandes companheiras Priscila, Renata e Thais, pelas muitas horas que passamos sentadas estudando, conversando e comendo, por todos os bons momentos e pela presença dos não tão bons. À República Bem-me-Quer, Aline, Ana Julia, Beatriz, Francine, Julia e Letícia, por fazerem de Guaratinguetá minha casa. Por todas as risadas, loucuras e desafios que vencemos juntas. Agradeço aos meus colegas de trabalho, Alan, Alex, Marcio e Milena, por me ajudarem a entrar no mundo corporativo e por todos os conhecimentos compartilhados. Ao meu orientador Prof. Leonardo, por todo o apoio, paciência e incentivo. Finalmente, à Faculdade de Guaratinguetá e todas as pessoas, que de alguma forma, contribuíram nesta fase tão importante da minha vida. “A melhor maneira de prever o futuro é inventá-lo.” Alan Kay FRIGO, A. INFRAESTRUTURA DE DATA CENTER E SUAS TENDÊNCIAS COM FOCO EM EFICIÊNCIA ENERGÉTICA. 2015. 50 f. Trabalho de graduação (Graduação em Engenharia Elétrica) – Faculdade de Engenharia do Campus de Guaratinguetá, Universidade Estadual Paulista, Guaratinguetá, 2015. RESUMO Com o surgimento do Big Data, o crescimento do Cloud computing e da Internet das Coisas, os datas centers vem se multiplicando no Brasil e no mundo. Projetar e operar esses ambientes de forma eficiente se tornou um desafio necessário, e para isso, é imprescindível um melhor conhecimento de sua infraestrutura. Sendo assim, este trabalho apresenta uma análise bibliográfica com conceitos técnicos, de forma a buscar entender as necessidades específicas relacionadas a esses ambientes e as formas de melhor atendê-las. Aborda os principais sistemas da infraestrutura de data centers, métodos para melhorar sua eficiência energética e suas tendências para o futuro. PALAVRAS CHAVES: Data Center. Eficiência Energética. FRIGO, A. DATA CENTER INFRASTRUCTURE AND ITS FUTURE TRENDS WITH FOCUS ON ENERGY EFFICIENCY. 2015. 50 f. Graduate Work (Graduate in Electrical Engineering) – Faculdade de Engenharia do Campus de Guaratinguetá, Universidade Estadual Paulista, Guaratinguetá, 2015 ABSTRACT With the Big Data development and the growth of cloud computing and Internet of Things, data centers have been multiplying in Brazil and the rest of the world. Designing and running this sites in an efficient way has become a necessary challenge and to do so, it’s essential a better understanding of its infrastructure. Thus, this paper presents a bibliography study using technical concepts in order to understand the specific needs related to this environment and the best forms address them. It discusses the data center infrastructure main systems, methods to improve their energy efficiency and their future trends. KEYWORDS: Data Center. Energy Efficiency. LISTA DE FIGURAS Figura 1.1 Volume de dados por plataforma ............................................................................ 10 Figura 1.2 Previsão de crescimento do tráfego IP .................................................................... 12 Figura 1.3 Divisão do tráfego de internet atualmente .............................................................. 12 Figura 1.4 Divisão do tráfego de internet atualmente .............................................................. 13 Figura 1.5 Previsão de crescimento de dispositivos e tráfego IP no Brasil. ............................. 13 Figura 2.1 Elementos de um data center .................................................................................. 16 Figura 2.2 Sala de computadores da Gainesvilledatacenter .................................................... 16 Figura 2.3 Servidores alocados dentro do rack......................................................................... 17 Figura 2.4 Distribuição elétrica no data center ........................................................................ 21 Figura 2.5 Exemplos transformador, gerador e ATS, respectivamente.................................... 23 Figura 2.6 Nobreak Off-line...................................................................................................... 24 Figura 2.7 Nobreak Interativo .................................................................................................. 24 Figura 2.8 Nobreak Dupla Conversão ...................................................................................... 25 Figura 2.9 Nobreak rotativo...................................................................................................... 26 Figura 2.10 Funcionamento do nobreak rotativo...................................................................... 26 Figura 2.11 Exemplos de PDU ................................................................................................. 27 Figura 2.12 Ciclo básico de refrigeração .................................................................................. 30 Figura 2.13 Corredores quentes e frios ..................................................................................... 31 Figura 2.14 Solução de confinamento de corredor quente ....................................................... 32 Figura 2.15 Esquema de confinamento de corredor frio e quente, respectivamente ................ 32 Figura 2.16 Configuração perimetral........................................................................................ 32 Figura 2.17 Unidade perimetral insuflando em corredor frio ................................................... 33 Figura 2.18 Configuração por corredor .................................................................................... 33 Figura 2.19 Configuração por rack ........................................................................................... 34 Figura 2.20 Configuração híbrida ............................................................................................. 34 Figura 3.1 Tarifa de energia média para a indústria no mundo ................................................ 37 Figura 3.2 Evolução da tarifa de energia elétrica para a indústria ........................................... 37 Figura 3.3 Média de PUE de grandes data center no mundo ................................................... 39 Figura 4.1 Resfriamento por submersão ................................................................................... 42 Figura 4.2 Data center pré-fabricado ........................................................................................ 43 Figura 5.1 Layout da sala de computadores ............................................................................. 44 Figura 5.2 Projeto da sala de computadores em 3D ................................................................. 45 SUMÁRIO 1 OBJETIVO E JUSTIFICATIVA .................................................................................. 10 1.1 INTRODUÇÃO ................................................................................................................ 10 2 O DATA CENTER .......................................................................................................... 15 2.1 CLASSIFICAÇÃO DO DATA CENTER ........................................................................ 17 2.1.1 Confiabilidade ................................................................................................................ 17 2.1.2 Disponibilidade .............................................................................................................. 18 2.1.3 Redundância .................................................................................................................. 18 2.1.4 Classificações Tier .......................................................................................................... 19 2.2 O SISTEMA ELÉTRICO DO DATA CENTER .............................................................. 21 2.2.1 Alimentação, Grupo Gerador e Chaves de Transferência ......................................... 22 2.2.2 Sistema de UPS .............................................................................................................. 23 2.2.3 Quadros elétricos e PDUs ............................................................................................. 26 2.3 SISTEMA DE CLIMATIZAÇÃO .................................................................................... 27 2.3.1 Ar condicionado de conforto v.s. Ar condicionado de precisão ................................ 28 2.3.2 Ciclo básico da refrigeração ......................................................................................... 29 2.3.3 Localização da unidade de refrigeração ...................................................................... 30 2.4 AUTOMAÇÃO, SEGURANÇA E PROTEÇÃO CONTRA INCÊNDIOS ..................... 35 3 EFICIÊNCIA ENERGÉTICA EM DATA CENTERS ............................................... 37 3.1 MÉTRICAS DE AVALIAÇÃO DE EFICIÊNCIA .......................................................... 38 3.1.1 PUE e DCE ..................................................................................................................... 38 3.2 SOLUÇÕES PARA AUMENTO DA EFICIÊNCIA ENERGÉTICA ............................. 39 3.2.1 Redução do consumo dos equipamentos de TI ........................................................... 39 3.2.2 Redução do consumo com climatização....................................................................... 40 4 OS DATA CENTERS DO FUTURO – TENDÊNCIAS .............................................. 42 5 ESTUDO DE CASO ........................................................................................................ 44 6 CONSIDERAÇÕES FINAIS ......................................................................................... 46 7 REFERÊNCIAS BIBLIOGRÁFICAS .......................................................................... 47 10 1 OBJETIVO E JUSTIFICATIVA 1.1 INTRODUÇÃO A evolução da internet no fim do século XX trouxe consigo mudanças estruturais na sociedade, fazendo com que um número cada vez maior de dispositivos acessem, simultaneamente, grandes volumes de dados em altas velocidades. Em 1992 o tráfego de dados na internet era de aproximadamente 100GB por dia; apenas 10 anos depois, em 2002, esse tráfego global já era de 100GB por segundo. Atualmente existem mais de 3 bilhões de usuários de internet no mundo e é possível fazer estimativas realistas sobre seus hábitos na rede, conforme ilustra a Figura 1.1. (CISCO, 2015) Figura 1.1 Volume de dados por plataforma Fonte: (DOMO, 2015) 11 De acordo com Gil Torquato, Chief Executive Officer (CEO) do UOLDIVEO, os próximos anos da internet serão marcados, principalmente, por três tendências: Big Data, Computação em Nuvem (Cloud Computing) e plataformas móveis. O crescimento das tendências citadas por Torquato, além do desenvolvimento da Internet das Coisas (Internet of Things), vem transformando a rotina e o relacionamento de pessoas e empresas no mundo todo, com as informações chegando com mais rapidez e precisão. (UOLDIVEO, 2015) Big Data é o termo usado para descrever o crescimento, a disponibilidade e o uso exponencial de informações estruturadas e não estruturadas. Trabalhar com esses dados exige soluções específicas, feitas, principalmente, para conseguir análises precisas rapidamente, permitindo uma tomada de decisão mais eficiente. Computação em nuvem é o conceito que se refere à utilização de toda a infraestrutura por detrás da conexão, como por exemplo, a capacidade de armazenamento e processamento de dados. Dessa forma, basta qualquer computador conectado à rede para que se tenha acesso aos arquivos, aplicações e serviços, sendo desnecessário que o usuário gaste com hardwares potentes. Atualmente muitas empresas oferecem esse serviço, por exemplo Dropbox, Netflix, Oracle Cloud. Internet das Coisas é o termo utilizado para descrever a conexão de qualquer dispositivo à rede, aproximando o mundo físico do digital. Atualmente, muitos objetos do cotidiano já estão conectados, como geladeiras, lavadoras de roupa, elevadores, carros. A Internet das Coisas permite melhorar operações do dia a dia, economizar tempo e recursos financeiros. A multinacional americana Cisco, líder mundial em redes de internet, publica estudos periódicos sobre o uso da internet, quantidade de dados transmitidos, dispositivos conectados, velocidade da conexão e outras informações relacionadas. Esses estudos contém previsões confiáveis a respeito do que esperar em relação à internet nos próximos anos. O último relatório, divulgado em maio de 2015, mostra o crescimento esperado para o tráfego Internet Protocol (IP) global até 2019, como se vê na Figura 1.2, havendo a expectativa de que o tráfego IP global anual ultrapasse 1 zettabyte ao final de 2016. (CISCO, 2015) 12 Figura 1.2 Previsão de crescimento do tráfego IP Fonte: (CISCO, 2015) Para elucidar o significado das nomenclaturas exabyte e zettabyte é comum o uso de comparações, como:  1 exabyte de dados equivale a 36.000 anos de vídeo em alta resolução;  Se 312g de café representassem 1GB, 1 ZB teria o mesmo volume da Grande Muralha da China; (BARNETT, 2011) O número de dispositivos conectados vem crescendo a cada ano; se em 2014 havia algo em torno de 14,2 bilhões, a previsão para 2019 é de 24,4 bilhões de dispositivos. A título de exemplo, a Figura 1.3 mostra quais tipos de dispositivos são comumente conectados. (CISCO, 2015) Figura 1.3 Divisão do tráfego de internet atualmente Fonte: (CISCO, 2015) A Figura 1.4 mostra de que é composto o tráfego atual da internet. Vídeos representam o maior volume do tráfego IP mundial, aproximadamente 67%, e a previsão é que alcance 80% até o fim de 2019. (CISCO, 2015) Exabytes por mês 13 Figura 1.4 Divisão do tráfego de internet atualmente Fonte: (CISCO, 2015) Os dados coletados referentes ao Brasil também apontam um crescimento significativo entre 2014 e 2019. A Figura 1.5 mostra o tráfego IP e o número de dispositivos conectados à internet no Brasil em 2014, bem como sua perspectiva de crescimento. (CISCO, 2015) Figura 1.5 Previsão de crescimento de dispositivos e tráfego IP no Brasil. Fonte: (CISCO, 2015) 0 100 200 300 400 500 600 700 800 0 1 2 3 4 5 6 2014 2019 M ilh õ es d e d is p o si ti vo s Ex ab yt es p o r m ês Números do Brasil Tráfego IP Dispositivos 14 Uma grande infraestrutura está por trás dos avanços nessa área, e para que o crescimento continue sendo possível, é necessário que essa infraestrutura continue a se expandir. Os Centros de Processamento de Dados, conhecidos tecnicamente por data centers, surgiram e evoluem constantemente a fim de atender essa demanda. Até 2017 haverá aproximadamente 8,6 milhões de data centers no mundo, existindo atualmente em torno de 3 milhões de data centers nos Estados Unidos. (SVERDLIK, 2014; VARGAS, 2014) Um data center abriga servidores e outros componentes, como sistemas de armazenamento e ativos de rede, para rodar aplicações, armazenar dados e disponibilizar todas essas informações a qualquer momento aos usuários conectados à rede. São sistemas de missão crítica, ou seja, ambientes construídos de modo a operar todo o tempo, sem paradas, oferecendo uma alta disponibilidade aos usuários e evitando a perda de dados importantes. Contudo, operar ininterruptamente faz com que os data centers consumam uma grande quantidade de energia, o que remete ao grande desafio de garantir sua eficiência energética. Com o objetivo de aprofundar essa questão, este trabalho visa entender os principais equipamentos dentro da infraestrutura de um data center, identificar seus maiores consumidores de energia, buscar soluções que aumentem sua eficiência energética e quais são as tendências dos data centers no futuro. 15 2 O DATA CENTER O termo data center é muitas vezes usado para se referir somente ao espaço onde estão instalados os equipamentos de TI (Tecnologia da Informação), porém seu conceito engloba a infraestrutura do site como um todo. Um data center possui basicamente os seguintes sistemas: (MARIN,2011)  Sala de Computadores (Computer Room, White Space ou ainda, piso elevado)  Distribuição elétrica e nobreak  Ar condicionado e controle ambiental  Automação do edifício  Detecção de supressão de incêndio  Segurança e controle A Figura 2.1 mostra uma visão geral dos elementos que podem compor um data center. Esses sistemas serão explorados nas próximas seções deste capítulo. Primeiro, abordaremos o conceito de classificação da infraestrutura do data center. Os equipamentos de TI ficam alocados na sala de computadores, em gabinetes chamados racks. Existem vários modelos de racks e as principais diferenças entre um modelo e outro são: capacidade suportada, número de espaços U1, dimensões (altura, largura e profundidade) e quantidade de perfurações para a passagem do fluxo de ar. A Figura 2.2, uma foto da sala de computadores da Gainesville Data Center, (empresa localizada no estado da Florida, EUA.), mostra os racks enfileirados, e na parte inferior da imagem, o piso elevado2. Já a Figura 2.3 traz, no detalhe, servidores dentro de um rack. 1 Rack Unit, ou simplesmente U, é a medida utilizada para descrever a altura de servidores, switches e outros dispositivos colocados no racks. Cada U equivale a 44.45mm. Um rack padrão possui 42Us. 2 Piso elevado é um tipo de piso usado para elevar o ambiente em alguns centímetros, criando um espaço para a passagem de cabos de comunicação, elétricos, ar refrigerado e/ou tubulações de água para refrigeração. 16 Figura 2.1 Elementos de um data center Fonte: (SCHNEIDER ELECTRIC, 2009) Figura 2.2 Sala de computadores da Gainesvilledatacenter Fonte: (GAINESVILLEDATACENTER, 2015) 17 Figura 2.3 Servidores alocados dentro do rack Fonte: (BIT MAGAZINE, 2015) 2.1 CLASSIFICAÇÃO DO DATA CENTER Baseado em pesquisas feitas pelo Gartner (LERNER, 2014), empresa de consultoria americana, o custo do tempo de parada do data center (downtime) é em torno de 300 mil dólares por hora. Dada sua natureza crítica de operação, as características mais importantes de um data center são confiabilidade, disponibilidade e redundância. Por isso, esses são os principais índices utilizados para classificá-lo. Segundo Marin (2011), existem algumas normas para a infraestrutura de data centers, como a ANSI/BICSI-002, a TÜV Rheinland e a ANSI/TIA 942, sendo esta última a mais utilizada atualmente. Para os fins deste trabalho, nos restringiremos à normativa ANSI/TIA 942 (Telecommunications Infrastructure Standard for Data center – Infraestrutura de Telecomunicações para data centers), que tem como base a classificação em Tiers. Essa especificação é uma iniciativa da organização norte-americana The Uptime Institute e leva em conta características de redundância e tolerância a falhas. 2.1.1 Confiabilidade Confiabilidade representa a “capacidade de um item desempenhar uma função requerida sob condições especificadas, durante um dado intervalo de tempo” (NBR 5462, 1994, p.3). Pode ser entendida como a probabilidade de um componente ou sistema não apresentar falhas durante o tempo de duração específico. A confiabilidade dependente da métrica MTBF (Mean Time between Failures – Tempo médio entre falhas), normalmente expressa em horas, e representa a média de tempo decorrido entre uma falha e a próxima. É importante ressaltar que esse índice não é uma previsão de 18 quando o dispositivo irá falhar ou de sua vida operacional. Não existe uma metodologia padronizada para o cálculo do MTBF e, portanto, o procedimento é definido conforme cada fabricante. Quanto maior o MTBF, maior a confiabilidade. (MARIN, 2011) A expressão de confiabilidade é dada pela equação (1). 𝐶𝑜𝑛𝑓𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒 = 𝑒−(1 𝑀𝑇𝐵𝐹⁄ ) (1) 2.1.2 Disponibilidade Disponibilidade é o percentual de horas que o sistema está em operação em relação ao tempo em que ele deve estar operando. É a probabilidade do sistema estar operando corretamente quando seu uso for solicitado. A disponibilidade é calculada conforme a equação (2) e depende dos índices MTBF e MTTR (Mean Time To Repair – Tempo médio de reparo). (MARIN, 2011) 𝐷𝑖𝑠𝑝𝑜𝑛𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒 = 𝑀𝑇𝐵𝐹 𝑀𝑇𝐵𝐹+𝑀𝑇𝑇𝑅 = 𝑡𝑒𝑚𝑝𝑜 𝑑𝑜 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑒𝑚 𝑜𝑝𝑒𝑟𝑎çã𝑜 𝑡𝑒𝑚𝑝𝑜 𝑡𝑜𝑡𝑎𝑙 𝑒𝑚 𝑞𝑢𝑒 𝑜 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑒𝑥𝑖𝑠𝑡𝑒 (2) MTTR é o tempo previsto para a recuperação do sistema após ocorrer uma falha, podendo incluir os tempos para diagnóstico do problema, chegada de um assistente técnico, recebimento de peças de substituição e o reparo propriamente dito. Quanto maior o MTTR, pior será a disponibilidade do sistema. Data centers são sistemas que, geralmente, devem operar 24 horas por dia durante todo o ano, o que corresponde a 8 760 horas. A tabela 1 mostra a relação entre o nível de disponibilidade e a quantidade de horas de inatividade do sistema. Conforme aumenta-se o nível de disponibilidade, o custo de investimento inicial também aumenta. Tabela 1- Nível de disponibilidade Nível De Disponibilidade Tempo De Inatividade Por Ano 90% 36,5 dias 95% 18,25 dias 99% 3,65 dias 99,999% 5 minutos Fonte: (IBM, 2015) 2.1.3 Redundância Redundância pode ser entendida como duplicidade de partes, módulos, componentes e/ou sistemas com a finalidade de evitar o tempo de parada de um site devido a: 19  Falhas técnicas  Falhas humanas (que causam erros de operação)  Manutenção preventiva ou corretiva 2.1.4 Classificações Tier As classificações tier descrevem as topologias da infraestrutura do data center para operação satisfatória. Essa avaliação considera apenas os sistemas de distribuição elétrica e climatização. Apesar de existirem quatro classes de tier, as quais serão detalhas nas próximas seções, não existe o conceito de superioridade entre elas, ou seja, um data center tier 4 não é melhor que um data center tier 2. A classificação tier, infraestrutura do data center, deve corresponder às necessidades do negócio, de modo que não seja um investimento maior que o necessário ou menor a ponto de trazer riscos do negócio. 2.1.4.1 Tier 1: Data center básico Data centers básicos são aqueles que não apresentam componentes ou sistemas redundantes em sua infraestrutura de distribuição elétrica e climatização. São suscetíveis a interrupções por atividades planejadas e causas acidentais. São infraestruturas apropriadas para pequenos negócios, onde a “presença na internet” seja uma ferramenta de marketing passivo e não haja grandes perdas com a indisponibilidade. 2.1.4.2 Tier 2: Data center com componentes redundantes É o data center que apresenta alguns componentes em redundância, porém com um único ramo de distribuição de energia e refrigeração. Falhas no ramo de distribuição causam indisponibilidade do sistema e manutenção corretiva ou preventiva, o que exige o desligamento do sistema. São apropriados para pequenos negócios, geralmente limitados a horas de expediente tradicionais, permitindo o desligamento do sistema em horas sem operação. 2.1.4.3 Tier 3: Data center com manutenção e operação simultânea 20 Data centers que possuem componentes redundantes e vários ramos de distribuição independentes de energia e refrigeração, sendo que um único ramo atende completamente a carga de TI, de modo que componentes podem ser desligados sem que a operação seja interrompida. Todos os equipamentos de TI devem ser alimentados de forma dual, ou seja, com dupla alimentação. O site é suscetível a interrupções por atividades não planejadas. São adequados a empresas que necessitam do sistema 24 horas por dia para atender clientes internos e externos ou porque o mesmo suporta processos automatizados que não poderão ser interrompidos sem planejamento. 2.1.4.4 Tier 4: Data center tolerante a falhas Um data center tolerante a falhas tem vários sistemas independentes, fisicamente isolados, com componentes redundantes, ramos de distribuição independentes que atendem a carga de TI simultaneamente e com todos os equipamentos possuindo dupla alimentação. Esses data centers são capazes de manter a operação quando componentes são retirados de serviço por qualquer razão. São apropriados para grandes empresas, em um mercado altamente competitivo, com negócios baseados em comércio eletrônico ou processos financeiros. O único data center com certificação Tier 4 no Brasil fica localizado em Campinas – SP, pertence ao Banco Santander, e foi inaugurado em junho de 2014. Foi também o primeiro data center com essa classificação da América Latina. O quadro 1 apresenta algumas característica nas classificações tier. Quadro 1- Classificações Tier Classificação Disponibilidade Horas de inatividade por ano Estimativa de custo por kW Tier 1 99,67% 28,8 US$ 10.000/kW Tier 2 99,74% 22,0 US$ 11.000/kW Tier 3 99,98% 1,6 US$ 20.000/kW Tier 4 99,99% 0,4 US$ 22.000/kW Fonte: (MARIN,2011) Nas próximas seções serão detalhados os principais equipamentos utilizados em data centers. 21 2.2 O SISTEMA ELÉTRICO DO DATA CENTER Manter os equipamentos de TI operando quase 100% do tempo requer uma alimentação contínua, fazendo com que o sistema de distribuição elétrica seja o mais crítico dentro do data center. Sendo assim, são necessários que equipamentos e sistemas auxiliares sejam agregados ao componentes da distribuição convencional. Esse sistema elétrico deve ser composto por alguns elementos básicos, que podem estar no mesmo ambiente ou em ambientes isolados: (Marin, 2011)  Entrada de alimentação elétrica proveniente da concessionária;  Grupo motor-gerador (também chamado somente de gerador);  Chaveadores (chaves de comutação);  Sistema UPS (Uninterruptable Power Supply – Fonte de Alimentação Ininterrupta, também chamado de nobreak);  Quadros/painéis de distribuição (PDU: Power Distribution Unit – Unidade de Distribuição de Energia);  Sistema de aterramento; A Figura 2.4 exibe um esquema de um sistema de distribuição típico. Figura 2.4 Distribuição elétrica no data center Fonte: (Marin, 2011) 22 2.2.1 Alimentação, Grupo Gerador e Chaves de Transferência Tipicamente, as concessionárias disponibilizam aos sites energia elétrica em corrente alternada, na tensão de 13,8kV. A forma mais segura de instalação dos alimentadores é por via subterrânea, onde os conduítes corrugados com proteção mecânica em aço são concretados sob o solo, sendo o único tipo permitido em locais tier 3 e 4. A partir de então, os cabos de alimentação devem entrar no data center e alimentar o transformador ou a subestação da edificação a fim de conseguir os níveis de baixa tensão desejados. O grupo gerador, composto por geradores movidos a diesel, é responsável por suportar a carga total no evento de falha da concessionária. Os geradores podem ser instalados em configuração distribuída ou paralela, mas para conseguir classificação tier 3 ou 4 é preciso que estejam instalados em paralelo para garantir os níveis de redundância. A comutação entre a energia proveniente da concessionária e do grupo gerador é feita por meio de uma chave de transferência automática (ATS - Automatic Transfer Switch). Quando a fonte de alimentação principal falha, a ATS envia um comando de partida para o gerador. No momento que a energia fornecida pelo gerador atingir a frequência e tensão adequadas, a chave conecta o sistema de distribuição ao gerador. Há basicamente quatro tipos de chaves de transferência, cabendo ao projetista selecionar o dispositivo que mais se adequa aos requisitos do sistema elétrico e do orçamento disponível. São eles:  Transição aberta: São os dispositivos mais simples, baratos, e em muitos casos, eficientes. Essa chave desconecta a carga completamente durante a comutação, sendo necessária a utilização de outros dispositivos para manter a carga durante a transição.  Transição fechada rápida: Com esse tipo de chave, a concessionária e o gerador são mantidos conectados ao sistema de distribuição do data center por um período de 100ms a 1 minuto, dependendo da concessionária e do projeto. Seu benefício é a não interrupção da alimentação à carga, porém esse dispositivo requer um controle mais preciso se comparado ao modelo de transição aberta.  Transição fechada lenta: Esse dispositivo mantém a concessionária e o gerador conectados à carga por um período mais longo (até um ou dois minutos), causando menos distúrbios na rede de distribuição, e necessitando um maior controle de comutação e sequência de operação mais complexa do sistema elétrico. 23  Transição por ciclo: São chaves que desconectam a concessionária e conectam o gerador em menos de um quarto do ciclo elétrico, de forma que a carga não é afetada pela comutação. Por serem dispositivos complexos e de custo elevado, não são muito utilizados para comutação de sistemas geradores. A Figura 2.5 traz exemplos reais de transformadores, geradores e chaves de transferência. (MARIN, 2011) Figura 2.5 Exemplos transformador, gerador e ATS, respectivamente Fonte: (Marin, 2011) 2.2.2 Sistema de UPS Conforme explicado anteriormente, a alimentação das cargas de TI deve ser sempre assegurada em caso de falhas na rede elétrica da concessionária, tanto para faltas de energia, quanto para problemas de qualidade da energia, daí a necessidade da existência de geradores. No entanto, o acionamento do gerador e o chaveamento das fontes levam um tempo para ocorrer, deixando as cargas sem energia durante esse período. Para que isso não ocorra são utilizados os nobreaks, dispositivos que possuem baterias capazes de suportar a carga por um período de tempo. Existem diferentes topologias de UPS, cada um com características diferentes. Nas próximas seções serão abordados os tipos mais comuns, de forma simplificada. 2.2.2.1 UPS Off-line (ou Standby) É a configuração mais simples que existe, pequeno, com alta eficiência e de baixo custo, é usado apenas para baixas potências. Conforme a Figura 2.6, possui uma chave de transferência 24 programada para utilizar como fonte primária a entrada CA (Corrente Alternada) vinda da rede e passando por um filtro. Caso haja um defeito na fonte primária, essa chave comuta para o modo bateria/inversor. Existe um tempo de transferência causado pela chave, porém não perceptível à carga. Figura 2.6 Nobreak Off-line Fonte: (RASMUSSEN, 2011) 2.2.2.2 UPS Interativo Nobreak interativo é um dos mais utilizados em pequenas empresas e para faixas de potência até 5kVA. A Figura 2.7 mostra o esquema de seu funcionamento. Nessa configuração, um único conversor realiza as funções de carregador de baterias, condicionador de tensão e inversor. Enquanto a rede principal está presente, esta é condicionada pelo conversor, ao mesmo tempo em que mantém as baterias carregadas. A frequência de entrada e saída são iguais. Quando a rede primária falha, a energia é suprida através das baterias. Como esse modelo também funciona por meio de uma chave de transferência, o tempo de comutação, apesar de pequeno, existe. Figura 2.7 Nobreak Interativo Fonte: (RASMUSSEN, 2011) 25 2.2.2.3 UPS de Dupla Conversão É o tipo mais comum de nobreak dentro dos data centers. Possui o mesmo diagrama de blocos que a topologia off-line, porém o circuito primário se dá através do retificador e inversor. A tensão de entrada, representada pela Figura 2.8, é constantemente convertida em CC (Corrente Contínua) pelo retificador e depois convertida novamente em CA pelo inversor, fazendo com que a saída possua sempre ótima qualidade. Nesse caso não existe tempo de transferência; quando a rede CA falha, a energia passa a ser proveniente das baterias. Uma das desvantagens desse sistema é possuir uma eficiência baixa comparada às outras topologias. Atualmente a maioria desses UPSs têm em torno de 95% de eficiência no modo dupla conversão. Figura 2.8 Nobreak Dupla Conversão Fonte: (RASMUSSEN, 2011) 2.2.2.4 UPS Rotativo (ou Flywheel) Este modelo é usado em aplicações que admitem um tempo de transferência curto em caso de falta de energia da concessionária. Sua autonomia é da ordem de segundos ou poucos minutos e sua principal diferença em relação às topologias anteriores é a não utilização de baterias. A Figura 2.9 mostra o diagrama de blocos dos sistema rotativo. Durante o fornecimento normal de energia da rede, o nobreak rotativo atua como um motor, armazenando energia cinética no acumulador. No momento em que a rede elétrica falha, a energia cinética armazenada é transferida para o estator-alternador, atuando como um gerador e fornecendo energia à carga até o momento que o motor à diesel possa ser acoplado. A Figura 2.10 mostra as duas etapas de funcionamento. O uso desse tipo de nobreak se torna mais 26 vantajoso técnica e economicamente conforme a potência é aumentada, o que acontece a partir de aproximadamente 500kVA. (MCCLUER; CHRISTIN, 2011) Figura 2.9 Nobreak rotativo Fonte: (MARIN, 2011) Figura 2.10 Funcionamento do nobreak rotativo Fonte: (EURO-DIESEL, 2010) 2.2.3 Quadros elétricos e PDUs O termo PDU é utilizado na maioria das vezes para se referir aos equipamentos de distribuição de energia alocados dentro da sala de computadores, sendo o quadro elétrico usado como referência ao quadro de distribuição principal. Uma PDU pode ir tanto de uma régua de tomada utilizada para conectar os ativos de TI dentro do rack, quanto um equipamento mais sofisticado montado em um gabinete. A Figura 2.11 traz alguns exemplos de PDUs: tradicional, modular e régua de tomada, respectivamente. 27 Figura 2.11 Exemplos de PDU Fonte: (HU, 2015) 2.3 SISTEMA DE CLIMATIZAÇÃO Todos os equipamentos presentes na sala de computadores, como qualquer componente eletrônico, dissipam energia em forma de calor3 e, quando permanecem em operação de forma constante, esse calor começa a ultrapassar a temperatura tolerada pelo equipamento, já que os mesmos são projetados para operar em faixas determinadas de temperatura e umidade. Um dispositivo eletrônico funcionando fora das especificações recomendadas pelo fabricante terá sua vida útil reduzida e a performance comprometida; servidores, por exemplo, podem apresentar lentidão, travamentos e reinicializações inesperadas, queimar ou até se auto desligar. Essas consequências são inadmissíveis em ambientes de missão crítica como os data centers, e por isso um bom sistema de climatização dos ambientes é tão importante quanto o sistema elétrico apresentado na seção 2.2. A infraestrutura do data center precisa garantir os aspectos de disponibilidade e confiabilidade das cargas de TI e isso não se resume a qualidade da energia elétrica entregue às cargas. O projeto de um sistema de climatização, ou sistema HVAC (Heat, Ventilatin and Air Conditioning – aquecimento, ventilação e condicionamento de ar) leva em consideração principalmente, o tamanho da sala, densidade de carga (kW por rack), localização da sala no edifício e característica do piso elevado. Entendida a necessidade do uso de equipamentos de ar condicionado nos ambientes de data center, deve-se esclarecer as diferenças entre o chamado ar condicionado de conforto e o ar condicionado de precisão. 3 99% da energia usada para alimentar os equipamentos de TI é transformada em calor. (MARIN, 2011) 28 2.3.1 Ar condicionado de conforto v.s. Ar condicionado de precisão Ar condicionado de conforto é o equipamento comum, utilizado em residências, escritórios, edifícios de comércio, serviços e etc. Ele é projetado para atender as necessidades físicas de um ambiente voltado para as pessoas. Equipamentos de precisão são especialmente produzidos para ambientes em que seja necessário o controle de ventilação com exatidão. No caso dos data centers, não só a temperatura precisa ser controlada com rigor, já que equipamentos eletrônicos são sensíveis a variações bruscas de temperatura, como também os níveis específicos para a umidade relativa, qualidade e fluxo do ar. Umidade relativa muito alta pode potencializar a corrosão devido a condensação da água; baixa umidade relativa aumenta o potencial de carga estática, aumentando a probabilidade de uma descarga. O ar com muitas partículas em suspensão pode potencializar danos localizados e descargas eletrostáticas. Logo, o fluxo de ar deve garantir a homogeneidade da temperatura e da umidade. O Quadro 2 traz as principais diferenças entre unidades de ar condicionado de precisão e de conforto. Quadro 2 –Principais diferenças entre ar condicionado de conforto e de precisão Característica Ideal para data center Ar condicionado de precisão Ar condicionado de conforto Fator de calor sensível4 (controle de temperatura) 1 0,95-0,99 0,65-0,70 Fator de calor latente 5(extração de umidade) 0 0,01-0,05 0,05-0,30 Variação de temperatura Quanto ↓ melhor 0,56°C Depende das condições de aplicação Variação de umidade relativa Quanto ↓ melhor 3-5% Não se aplica 4 Calor sensível é responsável pelo aumento da temperatura e é gerado por máquinas, iluminação e pessoas. (APC WP 56) 5 Calor latente é responsável pelo aumento da umidade relativa e é dissipado pela transpiração do corpo humano. (APC 56) 29 Taxa de circulação de ar (por kW) Quanto ↑ melhor 271m3/h 144m3/h Sensor de temperatura Na entrada do servidor Na entrada do servidor Controle remoto ou na entrada do ar de retorno Qualidade do ar Poucas partículas em suspensão Filtro de altas pregas e alta eficiência Filtro simples Tempo de operação ininterrupto (ano) 7 x 24 x 365 8.760 horas 7 x 24 x 365 8.760 horas 5 x 8 x 240 1.200 horas Fonte: (Lange, 2015) 2.3.2 Ciclo básico da refrigeração A retirada do calor de dentro do data center é feita usando-se o ciclo de refrigeração, mesmo processo utilizado por mais de 100 anos; a Figura 2.12 apresenta um esquema simples. O ar quente do ambiente entra em contato com o evaporador, uma serpentina por onde está passando o fluido refrigerante composto por uma mistura de líquido e vapor. Nesse momento, ocorre a troca de calor entre eles, fazendo com que o fluido se vaporize completamente, e em seguida passe pelo compressor, que o comprime e o bombeia até o condensador. No condensador, que também é uma serpentina, ocorre a segunda troca térmica, na qual o fluido em estado de vapor e alta temperatura, liberando energia para o meio externo, volta a se liquidificar, porém ainda com uma alta temperatura e pressão. Nesta última fase, o fluido passa pela válvula de expansão, onde ocorre uma redução da pressão e, consequentemente, da temperatura. E assim, o ciclo se repete. (EVANS, 2012) 30 Figura 2.12 Ciclo básico de refrigeração Fonte: (CEFET-SC- PROJETO INTER-RED, 2008) Os sistemas de ar condicionado nos data centers podem ser, basicamente, de dois tipos: expansão direta e água gelada. Expansão direta é o ciclo básico de refrigeração da Figura 2.12, em que o próprio fluido refrigerante faz a troca com o ar tratado. O sistema de água gelada é uma expansão indireta em que existe um fluido intermediário, no caso a água. O fluido refrigerante resfria a água em um equipamento chamado chiller, a água resfriada vai para os fan coils, que são serpentinas por onde passará a água que absorverá o calor do ambiente tratado. A escolha entre equipamentos do tipo expansão direta ou refrigerados à água depende de muitos fatores, como por exemplo, o local da aplicação, se o edifício já possui um chiller ou não, a capacidade necessária (água gelada atinge maiores capacidades), a decisão do gestor em levar ou não a tubulação de água para dentro do data center, as distâncias entre as unidades internas e externas. Ou seja, a escolha do tipo do equipamento deve ser feita caso a caso pelo projetista. 2.3.3 Localização da unidade de refrigeração Há quatro principais formas de posicionamento para as unidades de ar condicionado dentro da sala de computadores.  Perimetrais  Por corredor  Por rack  Híbrido 31 Independentemente do tipo configuração usada para a climatização do data center, a técnica de criar corredores quentes e frios tem sido adotada com frequência, já que separar o ar quente do frio melhora a eficiência energética, facilita o entendimento do fluxo de ar e do desempenho das máquinas de ar condicionado. A Figura 2.13 mostra a disposição dos racks e o fluxo de ar utilizando o conceito de corredores quentes e frios. Também é comum utilizar um confinamento nos corredores, para garantir que o ar quente não se misture ao frio. Esse confinamento pode ser tanto em corredores quentes quanto frios, e podem ser aplicado a qualquer uma das configurações. A Figura 2.14 apresenta um exemplo de solução de confinamento de corredor quente, já que as frentes dos racks estão para fora, e a Figura 2.15 mostra o esquema de confinamento frio e quente. (DUNLAP, RASMUSSEN, 2012) Figura 2.13 Corredores quentes e frios Fonte: (OLIVETEL, 2015) Corredores quentes e frios 32 Figura 2.14 Solução de confinamento de corredor quente Fonte: (DUNLAP, RASMUSSEN, 2012) Figura 2.15 Esquema de confinamento de corredor frio e quente, respectivamente Fonte: (DUNLAP, RASMUSSEN, 2012) 2.3.3.1 Configuração perimetral A configuração perimetral define que as unidades de ar condicionado devem atender a demanda de refrigeração de toda a sala, por isso são equipamentos com maior capacidade. A Figura 2.16 traz o exemplo de uma sala climatizada somente por equipamentos perimetrais. Nesse tipo de configuração, o ar pode ser insuflado por baixo do piso ou não, e o retorno do ar é feito na parte superior da unidade de refrigeração, modelo que pode ser visto na Figura 2.17. A desvantagem de unidades perimetrais é que não é possível utilizar toda a capacidade de refrigeração para a carga de TI. Figura 2.16 Configuração perimetral Fonte: (ENERGY UNIVERSITY, 2015) 33 Figura 2.17 Unidade perimetral insuflando em corredor frio Fonte: (ENERGY UNIVERSITY, 2015) 2.3.3.2 Configuração por corredor Nesta arquitetura, as unidades de ar condicionado são associadas e dedicadas a apenas um corredor. Como o caminho do fluxo de ar é bem definido, é possível utilizar toda a capacidade de refrigeração da unidade. A potência do ventilador é reduzida, pois o trajeto que o ar deverá fazer é curto, o que aumenta a eficiência energética. É uma configuração recomendada principalmente quando há altas densidades de carga por rack (mais que 5kW). A desvantagem do uso de unidade em fileira é que elas ocupam espaço dentro da sala de computadores, enquanto as unidades perimetrais podem ser instaladas em corredores técnicos. A Figura 2.18 mostra que o ar é insuflado pela frente da unidade de refrigeração e o retorno é feito pela parte traseira. Figura 2.18 Configuração por corredor Fonte: (SERVER RACKS AUSTRALIA, 2015) 34 2.3.3.3 Configuração por rack Na refrigeração por rack, as unidade estão associadas e dedicadas a um único rack. É muito similar à configuração por corredor, porém o percurso do ar é ainda menor e mais definido, sendo recomendado para racks de alta densidade e importância. Quase sempre é feito um confinamento desse rack, de modo que a unidade de ar condicionado só influencie a ele. A Figura 2.19 traz um exemplo disso. Figura 2.19 Configuração por rack Fonte: (THE DATA CENTER BLOG, 2015) 2.3.3.4 Configuração híbrida Neste caso, a configuração é uma combinação das configuração apresentadas anteriormente e se mostra útil em muitos casos, por exemplo, quando há um range grande de densidades por rack na sala ou quando se quer aumentar a capacidade em uma instalação perimetral existente. Figura 2.20 Configuração híbrida Fonte: (DUNLAP, RASMUSSEN, 2012) Ar condicionado Rack 35 O Quadro 3 traz as vantagens e desvantagens entre as configurações perimetral, por corredor e por rack. Quadro 3 – Comparativo entre as configurações Fonte: (DUNLAP, RASMUSSEN, 2012) 2.4 AUTOMAÇÃO, SEGURANÇA E PROTEÇÃO CONTRA INCÊNDIOS Os sistemas de automação, segurança e proteção contra incêndios são fundamentais para ambientes de missão crítica manterem a disponibilidade exigida. É importante conhecer o 36 estado operacional de cada equipamento em tempo real, pois no caso de algum evento inesperado (falhas em equipamentos, operação fora dos parâmetros definidos e etc.), o gestor do data center terá como identificar o problema e tomar as ações necessárias o mais rápido possível, minimizando a questão. Os sistemas de automação do edifício devem estar equipados com controle de acesso, sistemas de alarme, controle de portas, CFTV (Circuito fechado de TV), monitoramento de iluminação, entre outros. Os requisitos de proteção contra incêndio devem seguir, primeiramente, a legislação local. Precisa ser capaz de detectar o incidente (sensores de fumaça, calor e fogo), suprimir o fogo, utilizando sprinklers, que são sistemas com água ou gases inertes não inflamáveis, como por exemplo o FM-200. (MARIN, 2011) Tais subsistemas são importantes para garantir que a operação do data center ocorra sempre da melhor forma, garantindo a disponibilidade e a segurança dos dados e aplicações que nele estão presentes. 37 3 EFICIÊNCIA ENERGÉTICA EM DATA CENTERS Atualmente, a preocupação com o consumo energético é constante no mundo todo, independentemente do setor, devido ao aspecto ambiental, mas principalmente às questões financeiras. No Brasil tal preocupação é ainda maior, já que o país possui uma das tarifas de energia mais caras do mundo. A Figura 3.1 mostra a evolução do custo de energia elétrica para a indústria até 2015. Pode-se ver que a projeção feita em 2014 para 2015 e 2016, Figura 3.2, já foi ultrapassada ainda no primeiro semestre de 2015. (MING, 2014; MING, 2015) Figura 3.1 Tarifa de energia média para a indústria no mundo Fonte: (MING, 2015) Figura 3.2 Evolução da tarifa de energia elétrica para a indústria Fonte: (MING, 2014) 38 Considerando que os data center são grandes consumidores da energia elétrica produzida no mundo, e que seu consumo deve seguir crescendo juntamente com a construção de novos locais, todos os esforços voltados para a redução do consumo energético, e consequentemente a melhoria da eficiência, são muito significativos. Segundo Lange (2014), a climatização do ambiente é responsável por, aproximadamente, 40-45% do consumo de energia elétrica do data center, ficando atrás somente do consumo da energia dos servidores. Dessa forma, qualquer ganho de eficiência no sistema de refrigeração trará resultados importantes de melhoria nos custos com energia ao longo do ano. 3.1 MÉTRICAS DE AVALIAÇÃO DE EFICIÊNCIA Existem algumas iniciativas para avaliar os data centers com base em seu consumo energético. A instituição Ther Green Grid, organização sem fins lucrativos que busca tratar de eficiência energética em data centers, propôs duas das métricas mais utilizadas atualmente, o PUE (Power Usage Effectieness – Eficácia do uso da energia) e o DCE (Data Center Efficiency – Eficiência do data center). 3.1.1 PUE e DCE O PUE é o índice mais usado para avaliar a eficiência energética de um data center e é definido pela carga total do data center dividida pela carga de TI, conforme equação (3). (MARIN, 2011) 𝑃𝑈𝐸 = 𝐶𝑡𝑜𝑡𝑎𝑙 𝐶𝑇𝐼 (3) Sendo: 𝐶𝑡𝑜𝑡𝑎𝑙 A carga total do site, geralmente dada em kVA. 𝐶𝑇𝐼 A carga consumida pelos ativos de TI, também dada em kVA. Portanto, o PUE é um número absoluto, sendo 1 seu valor mínimo. Quanto mais próximo de 1, melhor a eficiência do data center. O PUE se popularizou bastante e é hoje usado como uma forma de marketing, fazendo com que algumas empresas acabem manipulando o índice para parecer melhores do que realmente são, medindo o consumo em momentos específicos, por exemplo. Dessa forma é difícil saber se os valores divulgados são reais. A Uptime Institute divulgou resultados de uma pesquisa feita 39 em 2014, Figura 3.3, mostrando a média de PUE dos grandes data centers no mundo. (DONNELLY, 2015) Figura 3.3 Média de PUE de grandes data center no mundo Fonte: (UPTIME INSTITUTE, 2014) O objetivo do PUE é dar aos próprios gestores do data center o conhecimento sobre a eficiência do site, e assim serem capazes de tomar decisões que posam reduzir seus custos. A forma mais precisa de medição é utilizar softwares de gerenciamento de infraestrutura de data center, que fazem leituras constantes de consumo e cargas de TI, mostrando, em tempo real, o valor do PUE. O índice DCE, menos utilizado, é o inverso do PUE, conforme a equação (4), de forma que seu melhor valor é o mais próximo de 1 possível. (MARIN, 2011) 𝐷𝐶𝐸 = 𝐶𝑇𝐼 𝐶𝑡𝑜𝑡𝑎𝑙 (4) Sendo: 𝐶𝑡𝑜𝑡𝑎𝑙 A carga total do site, geralmente dada em kVA. 𝐶𝑇𝐼 A carga consumida pelos ativos de TI, também dada em kVA. 3.2 SOLUÇÕES PARA AUMENTO DA EFICIÊNCIA ENERGÉTICA O primeiro passo é, obviamente, adquirir equipamentos que possuam boa eficiência energética. Porém, existem outras formas de melhorar o desempenho energético de um site, mesmo quando a infraestrutura do mesmo já é existente. 3.2.1 Redução do consumo dos equipamentos de TI Representando o maior consumidor de energia do data center, os ativos de TI são, certamente, uma boa forma de começar a reduzir o consumo. Além desse fato, a infraestrutura 40 do data center é dedicada ao funcionamento dos mesmo, portanto, reduzir o consumo de cargas de TI reduz indiretamente o consumo com climatização e alimentação. Algumas abordagens possíveis são:  Aposentar equipamentos antigos  Desativar servidores inativos  Virtualização  Correto dimensionamento 3.2.2 Redução do consumo com climatização A adoção de corredores quentes e frios traz significativos resultados, ainda mais se for realizado o confinamento de corredores. É importante também vedar qualquer abertura nos racks para não ocorrer a passagem de ar e a mistura do quente com o frio. (MARIN,2011) A escolha da temperatura ideal da sala de computadores é relevante, pois quanto mais baixa, maior o consumo dos equipamentos de ar condicionado. A instituição mais conhecida que rege a climatização de ambientes de data center é a ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers - Associação Americana de Engenheiros de Aquecimento, Refrigeração e Ar Condicionado), e em 2008 houve um flexibilização dos valores de temperatura recomendados para as salas de computadores, senso aceitável o intervalo entre 18ºC a 27ºC. Atualmente, a maioria dos data centers opera em torno de 20ºC a 24ºC, então há espaço para melhorias. Reduzir a recirculação também traz benefícios energéticos. Ela ocorre quando o ar frio retorna ao equipamento de ar condicionado sem ter realizado a troca térmica necessária. Isso faz com que a diferença entre a temperatura de retorno do ar e a temperatura do fluido refrigerante que circula no evaporador seja mais baixa. Quanto menor essa diferença, pior será a eficiência e a troca de calor. Essa é a mesma razão pela qual deve-se evitar a mistura de ar quente e frio. (Lange, 2015) Existe ainda a técnica de freecooling, que consiste em aproveitar o ar frio externo para realizar a refrigeração. Existem, basicamente, dois tipos de freecooling, direto e indireto. O direto se dá quando se coloca o próprio ar externo dentro da sala de computadores, o que exige realizar filtragens e ajustes na umidade do ar antes de inseri-lo no ambiente crítico. O método indireto ocorre ao utilizar o ar externo para resfriar o fluido refrigerante ou a água. 41 A princípio, o freecooling parece funcionar somente em regiões frias, porém ele necessita apenas de 10 a 15ºC de diferença entre as temperaturas externa e de retorno do ar condicionado. Além de ser possível utilizar métodos de freecooling parcial, em que parte do sistema consegue ser resfriada com o ar externo, pode-se utilizar, em conjunto, o sistema de ar condicionado principal. Dessa forma, é possível utilizar esse método para reduzir o consumo energético do sistema de climatização em muitos locais do mundo. 42 4 OS DATA CENTERS DO FUTURO – TENDÊNCIAS Sabendo que a necessidade por internet e dados só irá aumentar nos próximos anos, surgem algumas tendências para a infraestrutura dos data centers. Apesar de já serem realidade, os softwares de gerenciamento de infraestrutura de data center se tornarão cada vez mais populares, já que permitem um profundo conhecimento do que está acontecendo no site em tempo real e ainda fornecem recomendações de quais ações podem ser tomadas para melhorar a eficiência energética, evitar problemas de capacidade de energia, refrigeração e TI, além de ajudar a planejar mudanças físicas dentro da sala de computadores, gerar relatórios, entre outros recursos. As energias alternativas também serão aproveitadas, reduzindo os gastos com consumo elétrico. A Algar Tech, por exemplo, inaugurou no primeiro semestre de 2015, o primeiro data center abastecido com energia solar fotovoltaica da América Latina. (ALGAR TECH, 2015) O índice PUE deverá se tornar cada vez mais importante, juntamente com outras métricas, como pegada de carbono e consumo de água, irão se difundir. Iniciativas na área de climatização também deverão ocorrer, como por exemplo a expansão de técnicas de freecooling e a viabilização do uso de liquid cooling (resfriamento por submersão) que, como mostrado na Figura 4.1, é refrigerar os servidores imergindo-os em um líquido específico para esse fim. Figura 4.1 Resfriamento por submersão Fonte: (JONES, 2012) Data centers pré-fabricados ganharão espaço no mercado, pois possuem alta velocidade de implantação, além de poderem ser colocados em espaços abertos. São containers, como a 43 Figura 4.2, que podem ser customizados conforme a necessidade, com capacidade de abrigar toda a infraestrutura de TI ou sistemas de distribuição ou climatização. (SATUDI, 2015) Figura 4.2 Data center pré-fabricado Fonte: (SCHNEIDER ELECTRIC, 2015) O uso dos discos de estado sólido (SSD – Solid State Driver) deverá se expandir na medida em que forem ficando mais baratos, já que suas vantagens técnicas como velocidade, performance e durabilidade são indiscutíveis. (O'REILLY, 2015) 44 5 ESTUDO DE CASO Com o intuito de exemplificar alguns dos temas abordados nos capítulos anteriores, uma pequena solução da sala de computadores de um empresa no interior do estado de São Paulo será mostrada. O projeto foi feito por uma empresa multinacional especializada no setor, no primeiro semestre de 2015. A empresa possuía uma sala retangular de dimensões 8,4m x 10 m, porém precisava de uma solução completa para apenas oito racks de baixa densidade (1,6 kW e 3,0kW) no momento, o espaço não utilizado seria reservado para futuras expansões de capacidade. Foi adotado o confinamento de corredor quente, ar condicionado na configuração em fileira e sistema UPS modular, ou seja, possui módulos de potência independentes que podem assumir a carga no caso de um módulo falhar. A Figura 5.1 mostra o layout da sala. Figura 5.1 Layout da sala de computadores Fonte (VIERA, 2015) A carga total do ambiente é de, aproximadamente, 20kW. Sendo a capacidade total do UPS de 40kW e a de cada unidade de ar condicionado, refrigerado a ar, de 10kW. O confinamento do corredor quente é feito um produto específico para esse fim, que possui porta com fechadura, sistemas de iluminação e proteção contra incêndio Também faz parte da solução os dispositivos de segurança e controle ambiental, nesse caso câmeras de segurança, sensores 45 de temperatura e software de gerenciamento. O valor total desse projeto, incluindo os serviços para montagem e instalação, foi de 516 mil reais. A Figura 5.2 permite visualizar a sala em 3 dimensões. Figura 5.2 Projeto da sala de computadores em 3D Fonte (VIERA, 2015) 46 6 CONSIDERAÇÕES FINAIS Este trabalho tinha como objetivo apresentar um estudo, baseado em pesquisa bibliográfica, sobre a infraestrutura necessária para a operação de um data center. No segundo capítulo foram abordados os conceitos de disponibilidade e confiabilidade, classificações tier e os principais elementos da infraestrutura de um data center, apresentando de forma mais detalhada os sistemas elétrico e de refrigeração. O capítulo três explorou a questão da eficiência energética, apresentando o índice PUE e explicando algumas formas de aumentar a eficiência do data center. A questão ambiental ainda não é o fator pelo qual as empresas buscam melhores valores de PUE, mas isso tende a mudar com o passar dos anos. Os temas de sustentabilidade estão ganhando cada vez mais força e já existem métricas para avaliar a pegada de carbono e o consumo de água dos data centers, dessa forma será necessário que as companhias se adaptem às questões ambientais se quiser sobreviver no futuro. O capítulo quatro trouxe algumas das principais tendências com impactos na infraestrutura dos data centers no futuro, e a maioria delas será simplesmente a implementação de tecnologias que já existem mas ainda não são viáveis para aplicação nesses ambientes. É interessante ressaltar que o mercado brasileiro se mostra mais conservador com relação à mudanças como freecooling e operação com temperatura da sala de computadores maior em comparação com outros países. Então algumas das tendências mencionadas no último capítulo já estão muito mais desenvolvidas nesses lugares. No estudo de caso, foi possível perceber que os conceitos tratados neste trabalho são aplicados em casos reais e que, em muitos casos, o data center não precisa ser um espaço grande com muitos servidores, e sim um lugar que atenda às necessidades da empresa. O Brasil possui metade dos data center de toda a América Latina e o mercado ainda assim possui espaço para crescimento, principalmente nas regiões Norte e Nordeste. Seria interessante, para uma próxima ocasião, abordar de forma mais profunda os sistemas apresentados nesse trabalho, como por exemplo, entrar no detalhe dos elementos internos do UPS e entender as questões práticas envolvidas na escolha do sistema de refrigeração. Também é possível realizar um estudo de como é feita a união entre a área de TI e a infraestrutura do data center. 47 7 REFERÊNCIAS BIBLIOGRÁFICAS ALGAR TECH. Conheça nosso projeto de TI verde. 2015. Disponível em Acesso em 13 dec. 2015. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 5462: Confiabilidade e mantenabilidade. Rio de Janeiro, 1994. BARNETT, Thomas. The Dawn of the Zettabyte Era [INFOGRAPHIC]. 2011. Disponível em Acessado em 11 nov. 2015. BIT MAGAZINE. Lopes investe em novo data center com tecnologia Dell. 2014. Disponível em Acesso em 07 dec. 2015 CEFET-SC - PROJETO INTER-RED. Ciclo de um sistema de refrigeração. 2008. Disponível em Acesso em 10 dec. 2015 CISCO. The Zettabyte Era: Trends and Analysis. 2015. Disponível em Acesso em 15 set. 2015 DOMO. Data Never Sleeps 3.0. Disponível em < https://www.domo.com/blog/2015/08/data- never-sleeps-3-0/ > Acesso em 15 set. 2015. DONNELLY, Caroline. Datacentre PUE: Who's keeping score?. 2015. Disponível em < ttp://www.computerweekly.com/feature/Datacentre-PUE-Whos-keeping-score> Acesso em 12 dec. 2015. DUNLAP, Kevin; RASMUSSEN, Neil. Como escolher entre refrigeração perimetral, por corredor e por rack para data center. 2012. Disponível em Acesso em 10 dec. 2015. ENERGY UNIVERSITY. Advantages of Row and Rack-Oriented Cooling Architectures II. Disponível em Acesso em 11 dec. 2015. http://www.algartech.com/pt-br/blog/conheca-nosso-projeto-de-ti-verde/ http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-networking-index-vni/VNI_Hyperconnectivity_WP.html http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-networking-index-vni/VNI_Hyperconnectivity_WP.html http://www.apcmedia.com/salestools/VAVR-6J5VYJ/VAVR-6J5VYJ_R2_BR.pdf http://www2.schneider-electric.com/corporate/en/products-services/training/energy-university/data-center.page http://www2.schneider-electric.com/corporate/en/products-services/training/energy-university/data-center.page 48 EURO-DIESEL. Como funciona: descrição de operação. 2010. Disponível em Acesso em 6 dec. 2015. EVANS, Tony. The Different Technologies for Cooling Data Centers. 2012. Disponível em Acesso em 10 dec. 2015. GAINESVILLEDATACENTER Disponível em Acesso em 7 dec. 2015 HU, Pearl. Electrical Distribution Equipment in Data Center Environments. 2015. Disponível em Acesso em 6 dec. 2015. IBM KNOWLEDGE CENTER. Decidir qual o nível de disponibilidade de que necessita. Disponível em Acesso em 05 dec. 2015. JONES, Penny. Para Intel, líquido e servidores podem se misturar. 2012. Disponível em Acesso em 13 dec. 2015. LANGE, Milena G. Como a instalação do ar condicionado de precisão pode contribuir para a eficiência energética do Data Center. 2015. Disponível em Acesso em 10 dec. 2015. LANGE. Milena G. Dúvida ar de confortoxprecisão [mensagem pessoal]. Mensagem recebida por . 10 dec. 2015 LERNER, Andrew. The Cost of Downtime. 2014. Disponível em Acesso em 04 nov. 2015 http://www.gainesvilledatacenter.com/data-center/ http://www.gainesvilledatacenter.com/data-center/ https://blog-br.schneider-electric.com/gestao-de-energia-eficiencia-energetica/2015/05/15/como-a-instalacao-do-ar-condicionado-de-precisao-pode-contribuir-para-a-eficiencia-energetica-do-data-center/ https://blog-br.schneider-electric.com/gestao-de-energia-eficiencia-energetica/2015/05/15/como-a-instalacao-do-ar-condicionado-de-precisao-pode-contribuir-para-a-eficiencia-energetica-do-data-center/ https://blog-br.schneider-electric.com/gestao-de-energia-eficiencia-energetica/2015/05/15/como-a-instalacao-do-ar-condicionado-de-precisao-pode-contribuir-para-a-eficiencia-energetica-do-data-center/ https://blog-br.schneider-electric.com/gestao-de-energia/2014/10/21/contribuicao-da-climatizacao-na-eficiencia-energetica-data-center/ https://blog-br.schneider-electric.com/gestao-de-energia/2014/10/21/contribuicao-da-climatizacao-na-eficiencia-energetica-data-center/ http://blogs.gartner.com/andrew-lerner/2014/07/16/the-cost-of-downtime/ 49 MARIN, Paulo S. Data Centers: Desvendando Cada Passo: Conceitos, Projeto, Infraestrutura Física e Eficiência Energética. 1. ed. São Paulo: Érica, 2011. 320 p. MCCLUER, Stephen; CHRISTIN, Jean-Francois. Comparing Data Center Batteries, Flywheels and Ultracapacitors. 2011. Disponível em Acesso em 6 dec. 2015. MING, Celso. Asfixia tarifária. 2015. Disponível em Acesso em 12 dec. 2015. MING, Celso. Melhor para os chineses. 2014. Disponível em Acesso em 12 dec. 2015 OLIVITEL. Introdução Soluções Data Center. Disponível em Acesso em 11 dec.2015. O'REILLY, Jim. A clear vision of the future data center in 2020. 2015. Disponível em Acesso em 13 dec. 2015. RASMUSSEN, Neil. The Different Types of UPS Systems, White Paper 1. 2011. Disponível em Acesso em 06 dec. 2015. SATUDI, Alan K. Schneider Electric dá a receita para crescer na contramão da crise. 2015. Disponível em Acesso em 13 dec. 2015. SCHNEIDER ELECTRIC. High Density Scalable Water Cooled Large Data Center. Disponível em < http://www.apc.com/solutions/us/en/solution/high-density-scalable-water- cooled-large-data-center/> Acesso em 7 dec.2015. SCHNEIDER ELECTRIC. Prefrabricated data center modules. Disponível em Acesso em 13 dec. 2015. http://economia.estadao.com.br/blogs/celso-ming/asfixia-tarifaria/ http://www.olivetel.pt/catalogo/?cat=48 http://searchdatacenter.techtarget.com/opinion/A-clear-vision-of-the-future-data-center-in-2020 http://searchdatacenter.techtarget.com/opinion/A-clear-vision-of-the-future-data-center-in-2020 http://www.apc.com/solutions/us/en/solution/high-density-scalable-water-cooled-large-data-center/ http://www.apc.com/solutions/us/en/solution/high-density-scalable-water-cooled-large-data-center/ 50 SERVER RACKS AUSTRALIA. Server Rack Heat Dissipation in Next Generation In-Row Architectures. Disponível em Acesso em 11 dec. 2015. SVERDLIK, Yevgeniy. IDC: Amount of World’s Data Centers to Start Declining in 2017. 2014. Disponível em < http://www.datacenterknowledge.com/archives/2014/11/11/idc- amount-of-worlds-data-centers-to-start-declining-in-2017/> Acessado em 17 out 2015. THE DATA CENTER BLOG. APC Inrow 30KW cooling. Disponível em Acesso em 11 dec. 2015. UOLDIVEO. Big data, nuvem e plataforma móvel ditarão futuro da Internet. 2015. Disponível em Acesso em 23 set. 2015. UPTIME INSTITUTE. 2014 Data Center Industry Survey. 2014. Disponível em Acesso em 12 dec. 2015. VARGAS, Maria. 10 Facts to Know About Data Centers. 2014. Disponível em Acessado em 17 out. 2015 VIEIRA. Alexander. Projeto ISX [mensagem pessoal]. Mensagem recebida por . 13 dec. 2015 http://www.server-racks-australia.com.au/technical_information/WP%20white%20paper%20inrow%20cooling%20V1.4.pdf http://www.server-racks-australia.com.au/technical_information/WP%20white%20paper%20inrow%20cooling%20V1.4.pdf http://www.server-racks-australia.com.au/technical_information/WP%20white%20paper%20inrow%20cooling%20V1.4.pdf http://www.datacenterknowledge.com/archives/2014/11/11/idc-amount-of-worlds-data-centers-to-start-declining-in-2017/ http://www.datacenterknowledge.com/archives/2014/11/11/idc-amount-of-worlds-data-centers-to-start-declining-in-2017/ http://www.uoldiveo.com.br/noticias-e-eventos/2015/09/25/big-data-nuvem-e-plataforma-movel-ditarao-futuro-da-internet.html#rmcl http://www.uoldiveo.com.br/noticias-e-eventos/2015/09/25/big-data-nuvem-e-plataforma-movel-ditarao-futuro-da-internet.html#rmcl https://journal.uptimeinstitute.com/2014-data-center-industry-survey/ http://energy.gov/eere/articles/10-facts-know-about-data-centers