Algumas frases flutuam no inconsciente coletivo desde a pandemia. O dado ser o novo petróleo é uma delas. Somente em 2021, segundo estudo da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), era possível mensurar que 78,3% dos brasileiros já estavam conectados à Internet – isso coloca o Brasil na quinta posição do ranking dos países com maiores populações consumidoras de dados. Mas é essencial aliar, a essa verdade, outra constatação: o data center é a fábrica de dados que faz a economia girar. No ano em que a rede 5G finalmente chegará ao Brasil, espera-se uma explosão de data centers em todas as regiões e todas as verticais.
A baixa latência trazida pelo 5G exige sites de edge computing para se tornar tangível. Ao se levar o processamento de dados para as bordas da rede, fica mais fácil atingir velocidades de no mínimo 50 megabits por segundo, com índices de latência 10 vezes mais baixos do que os oferecidos pelas redes 4G. Em geral, acredita-se que a velocidade de processamento e entrega de dados da rede 5G será até 100 vezes superior à das redes 4G (dados da Next Generation Mobile Networks Alliance).
Para atingir essas metas, operadoras de todos os portes – incluindo os cada vez mais capitalizados e consolidados ISPs – e grandes empresas usuárias estão, neste exato momento, estudando como distribuir geograficamente e ampliar o tamanho de seus data centers. Segundo a pesquisa Data Center 2025: Mais Próximo do Edge, desenvolvida em 2019 pela Vertiv a partir de entrevistas com 800 gestores de data centers, a quantidade de data centers voltados às funções de edge computing deverá crescer 226% até 2025. Para a consultoria norte-americana Medium, até 2025 75% dos dados corporativos serão processados em data centers implementados na borda da rede. Hoje essa marca está em 10%.
Quer seja um data center implementado nos grandes centros, quer seja uma unidade de processamento modular, com tamanhos que variam de um gabinete a um andar, passando por modelos em contêineres, a lógica que rege esse mercado é a mesma: o data center é um ambiente crítico que tem de entregar serviços digitais de excelente qualidade.
Downtime do data center: preocupação sempre presente
O downtime do data center é um risco real. Pesquisa do Uptime Institute, de 2018 com 900 data centers globais, mostra que 31% desse universo experimentou um downtime ou forte degradação de serviços digitais em 2017. Relatório do Gartner de 2014 indica que cada minuto de downtime custa US$ 5.600 (cerca de 28.000 reais) para o operador do data center. Esse cálculo não inclui as perdas das empresas usuárias deste ambiente. A indisponibilidade derruba as vendas de produtos das empresas baseadas no data center, afetando também o valor de suas marcas. O data center, por seu lado, é duplamente prejudicado: com SLAs que, normalmente, oferecem 100% de disponibilidade de serviços, qualquer falha de energia, gestão da temperatura e banda pode levar a pesadas penalidades.
Eu tenho ouvido desabafos de gestores de data centers em relação à pressão que sofrem nesse momento de forte expansão da infraestrutura digital crítica. São frases como estas:
- “Disponibilidade 24×7 é a nossa meta ao monitorar um data center. Ele é o coração da rede e tem de funcionar de forma automatizada, até mesmo se o administrador de sistemas não estiver no local”.
- “Minha função é prover a disponibilidade correta – contratada em formato de SLA – aos clientes. Isso exige não apenas que eu verifique o status dos dispositivos, mas também que eu seja capaz de analisar o uso e o consumo de parâmetros chaves, como energia e largura de banda. Eu preciso assegurar a qualidade da experiência do usuário e, ao mesmo tempo, evitar um excesso de investimentos em infraestrutura”.
- “Como administrador de um data center físico, eu necessito ter visibilidade sobre toda a infraestrutura de TI desse ambiente, e ir além, ganhando controle também sobre o entorno do data center”.
Uma estratégia para vencer esses desafios pode ser a adoção de uma plataforma de monitoramento agnóstica. São soluções capazes de trazer uma visão preditiva sobre todos os aspectos de um data center, incluindo os desafios clássicos de TI, sensores ambientais e dispositivos de segurança. A meta é obter uma visão única sobre o ambiente como um todo e, sempre que for recomendável, utilizar dashboards individuais focados em aspectos específicos da fábrica de dados.
É possível utilizar esse tipo de solução para monitorar de forma integrada e a partir de uma única interface um data center, ou milhares de data centers. São soluções de monitoramento “White Label” que, além de já entregarem centenas de sensores que medem o status de cada elemento do data center e da rede, podem servir de plataforma de desenvolvimento de novos sensores.
A jornada de um data center brasileiro, a Primus TI
Esse é o caso da Primus TI, empresa localizada em Porto Alegre, Rio Grande do Sul. A Primus TI conta com três data centers com perfis específicos: produção, recuperação de desastres e redundância para proteção de dados dos clientes. A organização utiliza 24x7x365 uma plataforma que informa de forma visual e analítica as medições sobre os dispositivos e software responsáveis por suportar os processos digitais das empresas hospedadas nos seus data centers. Hoje, mais de 2.500 sensores controlam a operação dos data centers Primus TI. Isso é feito de forma constante, de modo a detectar, entre outros parâmetros, o aumento de latência.
O time Primus TI desenvolveu, ainda, sensores próprios – um deles mede a saúde da replicação entre os servidores do data center de produção e os servidores do data center de recuperação de desastres. Trata-se, de um recurso que eleva a qualidade da entrega dos serviços Primus TI.
Nesse momento de acelerada distribuição geográfica dos data centers e aumento de tamanho de vários centros de dados, casos como o da Primus TI mostram que é possível antecipar e equacionar os desafios de monitoração desse ambiente. A economia digital brasileira precisa de data centers confiáveis para, em 2022, avançar ainda mais.