DevSecOps

15 fev, 2017

A importância de FPGA, hiperconvergência e DevOps para a sua rede (e trabalho)

Publicidade

A corrida para inovação na rede da nuvem ficou mais disputada. Recentemente, a Microsoft anunciou o último lançamento do Projeto Catapult, os Arranjos de Portas Programáveis em Campo (FPGAs, Field Programmable Gate Arrays) ativos há várias décadas que ganharam grande notoriedade com o Bing. Os FPGAs estão ganhando destaque novamente como forma de aumentar a velocidade e eficácia do Azure, à medida que diminuem o custo dele. Os efeitos dessas inovações de rede da nuvem serão sentidos de diversas formas; portanto, é importante explorar como essas tecnologias (usando os FPGAs da Microsoft como exemplo) começarão a tomar forma nos ambientes de rede.

Decifrando as siglas

Com todas essas tecnologias de servidor personalizadas à disposição, é importante analisar por que a Microsoft está seguindo o caminho do FPGA em vez da unidade de processamento central (CPU), da unidade de processamento gráfico (GPU) ou do circuito integrado de aplicação específica (ASIC).

A CPU é um processador para fins gerais com uma grande variedade de instruções publicadas e, apesar de não ser tão rápida, é capaz de fazer desde resolução de endereço IP a decodificação analógica e gráficos. É por isso que ela está presente em praticamente todos os tipos de dispositivos, como telefones, computadores e dispositivos incorporados. Por outro lado, uma GPU possui centenas (ou milhares) de núcleos; cada um deles executa apenas algumas tarefas, porém de maneira rápida, graças à capacidade de personalização em silício, programação e paralelismo (como nos data centers do Bitcoin e do NSA). Por fim, o ASIC (o equivalente a uma GPU da rede) é um chip personalizado que sabe como rotear o tráfego de rede sem toda aquela preocupação com relatórios. Ele move pacotes de maneira rápida e eficiente, mas é bastante lento em tarefas fora da rotina. Cada um desses chips exige um elemento de compilação personalizada que sacrifica a velocidade e a eficiência.

O que a Microsoft fez com o Bing (e como o Bing conseguiu acompanhar o ritmo do Google) foi buscar maneiras de alcançar o processamento de rede neutro e o aprendizado por máquinas, sabendo que o Bing precisaria ter o tipo de desempenho dedicado que os processadores de chip fornecem e permitir que eles sejam capazes de se adaptar com o tempo. A Microsoft recorreu a uma tecnologia um pouco antiga: FPGAs. Eles começaram a incluí-la nos servidores, em vez dos nós de processamento especializados. A Microsoft distribuiu os chips programáveis em cada um dos seus servidores para localizar um poder de processamento específico para tarefas e bem mais eficiente para certas cargas de trabalho do que para os próprios servidores.

Talvez o legado do Bing não seja o fato de ele ter se tornado um concorrente de peso para a pesquisa do Google, mas sim de ter lançado a arquitetura responsável pelo Projeto Catapult do Azure, a rede de FPGA distribuída. Em vez de compilar chips personalizados, a Microsoft criou uma rede distribuída de chips reprogramáveis projetada para aprendizagem por máquinas e outros recursos, incluindo SDN e roteamento, como parte de uma infraestrutura padrão vantajosa que é exclusiva para o Azure.

É importante observar que, juntamente com os anúncios recentes sobre FPGAs, o Azure também diminuiu os preços, o que acirrou ainda mais a disputa por preços e eficiência entre os gigantes Azure e Amazon Web Services (AWS) e tornou a concorrência ainda mais interessante.

Apesar de ser uma análise de alto nível do setor, a questão é: como tudo isso afetará realmente os profissionais de TI?

A realidade para profissionais de TI: hiperconvergência e DevOps no mundo da TI híbrida 

Provavelmente, será na hiperconvergência que tudo isso se concretizará para o profissional de TI. Por exemplo, o Azure Stack é a versão de hiperconvergência empresarial da Microsoft e basicamente permite que o Azure seja implantado em um data center. A linha entre tecnologias da nuvem e empresariais é cada vez mais tênue e está tornando o Azure ainda mais atrativo para empresas. Com o Azure Stack, tudo o que está no local funciona como se estivesse na nuvem. A Microsoft está basicamente impulsionando recursos altamente convergentes em um rack de sistemas homogêneos lado a lado, oferecendo suporte a um conjunto de ferramentas de gerenciamento e monitoramento e administradores de transição da Infraestrutura como serviço para a Plataforma como serviço.

Com o Azure no data center, mais profissionais de TI migrarão as cargas de trabalho locais para o Azure Stack. Isso permitirá que eles gerenciem a infraestrutura da empresa de forma programática e migrem elementos da infraestrutura para o Azure. Fale sobre a TI híbrida.

Isso introduz outra abordagem à TI híbrida e uma expansão da função de DevOps em duas formas: por meio das tecnologias de rede da nuvem aplicadas em ambientes da empresa (e empresas locais que buscam contratar desenvolvedores do Azure, por exemplo) e da adoção natural do DevOps como função necessária para qualquer pessoa que gerencia aplicativos por APIs (não GUIs).

Práticas recomendadas

Com a explosão das inovações de rede da nuvem levando à hiperconvergência e uma mistura cada vez maior de tecnologias tradicionais e da nuvem na empresa, os profissionais de TI precisam adotar práticas que acompanhem o ritmo dessas mudanças. Eles devem considerar o seguinte:

  • Entender melhor o monitoramento: Hoje, monitoramento eficaz da rede significa analisar desde os componentes da pilha de aplicativos (bancos de dados, servidores, armazenamento, roteadores e switches) até os firewalls de rede interna, os caminhos da Internet e a rede interna do provedor de SaaS. Apesar de ser necessário obter informações sobre os componentes do fornecimento de aplicativos para conseguir uma solução de problemas detalhada, do ponto de vista do monitoramento, tornou-se essencial monitorar a experiência do usuário em todos os elementos da cadeia de fornecimento, incluindo a Internet e as redes de provedores de serviço.
  • Conhecer mais detalhes sobre a rede de nuvem privada virtual (VPC): Isso envolve gerenciamento de política de segurança, atribuição de grupo de políticas e auditoria de política de segurança. Em resumo, a proteção das redes internas não pode continuar só na teoria; os profissionais de TI precisam entender como replicar esse processo no VPC.
  • Focalizar em como o tráfego em massa se desloca: Ao executar backups em ambientes locais, a única preocupação deles é se o processamento de análise offline é executado durante os backups e se estes devem separados para não sobrecarregar o armazenamento. Mas em ambientes de nuvem, isso é muito mais complexo e envolve entender para onde os backups vão e onde esses processos acontecem. Os profissionais de TI devem ficar de olho na evolução do tráfego de rede (redes LAN, WAN e VPC).
  • Buscar conhecimento: Todas essas tecnologias vão exigir muito estudo e dedicação. E os profissionais de TI não devem perder tempo! Essas inovações são velozes e furiosas, e reciclar habilidades é importante para se chegar à mentalidade do DevOps.
  • Reavaliar serviços regularmente: A tecnologia está evoluindo em um ritmo acelerado, e os serviços oferecidos por provedores de nuvem estão muito mais diferenciados. Com frequência, os fornecedores estão adicionando mais recursos e se nivelando entre si, como com FPGAs e serviços de blockchain do AWS e do Azure. Ter uma noção dessas ofertas de serviço é importante, porque o mercado espera que os profissionais de TI sejam especialistas nesses serviços da mesma forma que o são com tecnologias empresariais.

Pode ser bastante difícil seguir o ritmo de todas essas mudanças na rede da nuvem e a forma como elas começarão a afetar profissionais de TI em ambientes híbridos. Mas entender o ponto de vista prático dos efeitos previstos dessas tecnologias na TI permitirá que os profissionais pensem no assunto de maneira racional e encarem o futuro da empresa com confiança.