Banco de Dados

9 fev, 2023

Centros de dados: como o software irá lidar com a futura explosão de dados

Publicidade

Um princípio importante na evolução da TI ao longo das décadas tem sido a Lei de Moore. Em termos simples, ela prevê que os dados nos processadores duplicarão a cada dois anos, à medida que o desenvolvimento aumenta.

No entanto, o que é talvez menos conhecido é uma tendência no espaço dos centros de dados. Apesar de um aumento de 6 vezes nos dados em processamento desde 2010, o consumo de energia dos centros de dados aumentou apenas 6% em 2018, segundo Masanet et al, 2020. Como isso foi possível e mostra a expansão da sustentabilidade no futuro?

De onde vêm os dados?

Para contextualizar este desenvolvimento, precisamos primeiro compreender de onde veio o aumento do processamento de dados.

Com a chegada de novos aparelhos tecnológicos e o envolvimento dos meios de comunicação social, houve um grande aumento, enquanto que a produção global de dados passou de estimativas de 2 zettabytes em 2010 para 41 zettabytes em 2019. Segundo pesquisa da IDC estima-se que a carga global de dados irá aumentar para 175 zettabytes até 2025.

O efeito pandêmico é um dos motivos, pois houve um grande aumento na utilização de mensagens e meios de comunicação social nesse período: usuários, na América Latina, passam mais tempo nas redes sociais, com uma média de mais de 3,5 horas por dia.

Da mesma forma, um estudo separado mostra que 71% dos entrevistados do Médio Oriente relataram que a utilização do WhatsApp e de outras aplicações de mensagens aumentou desde a chegada da pandemia.

Que impacto têm todos esses dados?

Para compreender o impacto desta explosão de dados, foi desenvolvido um conceito denominado gravidade dos dados. Criado pelo engenheiro David McRory, o termo refere-se à tendência de uma acumulação de dados para atrair aplicações e serviços para ela, precipitando uma maior acumulação, o que pode levar à imobilização dos dados, bem como a uma subutilização. Dados grandes e rápidos podem ficar imobilizados, reduzindo a sua capacidade. Apenas serviços de baixa latência e alta largura de banda, combinados com novas arquiteturas de dados, podem combater este fenômeno crescente.

Quais desenvolvimentos tecnológicos tornaram isto possível?

Os múltiplos desenvolvimentos tecnológicos podem ser responsáveis por esta explosão de dados, sendo tratados apenas com aumentos mínimos no consumo de energia, desde melhorias na concepção e fabricação do processador, passando por unidades de fornecimento de energia e armazenamento, mas também pela migração de cargas de trabalho da infraestrutura do local para a nuvem.

Já existem empresas de tecnologia comprometidas com negócios sustentáveis há décadas. Isso significou um foco renovado na eficiência no desenvolvimento de produtos e na operação. Ganhos foram obtidos em eficiência de energia e refrigeração, com sistemas UPS e fontes de alimentação modulares, mostrando ganhos significativos. Como o uso de baterias de íon-lítio, que não só aumentou a eficiência, como também estendeu a vida operacional, diminuiu o impacto ambiental na redução de matérias-primas e facilitou a “troca energizada”, onde a adição e/ou substituição de módulos de energia pode ser realizada com zero tempo de inatividade, aumentando a proteção aos operadores e pessoal de serviço.

Os avanços na refrigeração, tais como o controle do fluxo através de sistemas de contenção de cremalheira, filas e cápsulas, refrigeração líquida e controle inteligente do software asseguram que os ganhos do processamento de dados puros sejam satisfatórios e combinados.

Ao assegurar que cada elo da cadeia de energia, desde a rede de energia até o rack, seja o mais eficiente, inteligente e instrumentado possível, fornecemos a base certa para o rápido desenvolvimento em computação, rede e armazenamento para continuar funcionando diariamente.

Onde é que o software e as aplicações se encaixam aqui?

Outro elemento-chave do desenvolvimento tecnológico que tem permitido uma eficiência tão implacável tem sido a aplicação de melhor instrumentação, coleta de dados e análise, que permite um melhor controle e orquestração. Isto foi ilustrado pelo DeepMind IA, do Google, onde a energia utilizada para refrigeração foi reduzida num dos seus centros de dados em cerca de 40% em 2016, o que representou uma redução global de 15% no consumo de energia. Isto foi possível utilizando dados históricos de sensores de centros de dados, tais como temperatura, potência, velocidades de bomba, setpoints, etc., para melhorar a eficiência energética dos centros de dados. O sistema de IA previu a temperatura e a pressão futuras do data center na próxima hora e fez recomendações para controlar o consumo adequadamente.

O desenvolvimento de sistemas de gerenciamento de infraestrutura de data center (DCIM) também continuou em ritmo acelerado, permitindo a integração da IA para aproveitar todos esses desenvolvimentos de hardware e infraestrutura. Esses experimentos agora são recursos, permitindo visibilidade e controle sem precedentes. Para aqueles que projetam novos desenvolvimentos, um software como o ETAP permite que a eficiência energética seja incorporada ao projeto desde o início, ao mesmo tempo em que acomoda arquiteturas de microrredes.

Como as novas fontes de dados irão contribuir para isso?

Espera-se que a explosão de dados continue aumentando através do desenvolvimento do IoT industrial e do 5G, tendo o aumento da automação geral e os veículos autônomos como fatores determinantes. Os dados que serão gerados, longe da infraestrutura centralizada de dados, devem ser tratados, processados e transformados em inteligência rapidamente, conforme necessário.

Espera-se que as novas arquiteturas de dados melhorem a eficiência de como tudo isso é tratado. O desenvolvimento da computação é visto como uma abordagem importante para gerir mais dados que serão produzidos.

Em um exemplo, a pesquisa genômica gera terabytes de dados normalmente diariamente. Enviar todos esses dados para um centro de dados centralizado seria lento, exigiria alta largura de banda e seria ineficiente. O Wellcome Sanger Institute criou uma abordagem de computação de ponta que lhe permitiu processar dados perto de onde são produzidos, os sequenciadores genômicos, com apenas o necessário centralizado. Isso economiza armazenamento, largura de banda e acelera o tempo de inteligência dos dados.

Centros de dados modulares, micro centros de dados e melhor gerenciamento de armazenamento contribuirão para lidar com essa onda em desenvolvimento de forma eficiente, mantendo a linha de consumo de energia do centro de dados estável no futuro.

Quais efeitos terá isto em todo o ecossistema de dados?

No entanto, a eficiência deve estender-se não só à cadeia de abastecimento, mas também a todo o ciclo de vida. Fornecedores e parceiros devem estar todos envolvidos para garantir que nenhuma parte do ecossistema se atrase na aplicação das ferramentas para assegurar a eficiência. Isto aplica-se tanto no tempo de concepção de novos equipamentos e aplicações como ao longo da vida útil e da eficiência. Compreender como todo o ecossistema empresarial tem impacto sobre o ambiente será vital para alcançar verdadeiramente as metas.

Normas acordadas, transparência e mensurabilidade são fatores vitais para garantir resultados.

Essas considerações estão se consolidando em todo lugar, e grandes esforços estão sendo feitos para melhorar. Maior transparência agora é aceita e adotada, com mais e mais organizações relatando seu progresso.

Ferramentas e processos partilhados

O setor de data center será muito útil para organizações e indústrias que querem seguir o caminho da sustentabilidade no sentido de uma circularidade crescente. Experiência e eficiência, combinadas com as ferramentas de inteligência das operações e compromissos com metas rígidas para operações net-zero, podem não só lidar com a explosão de dados e as exigências digitais do mundo, mas também fazê-lo de forma sustentável, ao mesmo tempo que fornece a outros as ferramentas e conhecimentos para fazer o mesmo para os seus respectivos setores.