O Google Cloud e a NVIDIA anunciam uma nova infraestrutura e software de IA para os clientes criarem e implantarem modelos massivos para IA generativa e acelerarem cargas de trabalho de ciência de dados.
Em um bate-papo no Google Cloud Next, o CEO do Google Cloud, Thomas Kurian, e o fundador e CEO da NVIDIA, Jensen Huang, discutiram como a parceria está trazendo serviços de machine learning de ponta a ponta para os maiores clientes de IA do mundo, inclusive facilitando a execução e implementação de Supercomputadores de IA com ofertas do Google Cloud baseadas em soluções da NVIDIA. As novas integrações de hardware e software utilizam as mesmas tecnologias NVIDIA empregadas nos últimos dois anos pelo Google DeepMind e pelas equipes de pesquisa do Google.
“Estamos num ponto de inflexão em que a computação acelerada e a IA generativa se uniram para agilizar a inovação a um ritmo sem precedentes”, afirma Huang. “Nossa colaboração, ampliada com o Google Cloud, ajudará os desenvolvedores a acelerar seu trabalho com infraestrutura, software e serviços que potencializam a eficiência energética e reduzem custos.”
“O Google Cloud tem um longo histórico em IA para promover e acelerar a inovação para nossos clientes”, pontua Kurian. “Muitos dos produtos do Google são desenvolvidos e servidos em GPUs NVIDIA, e muitos de nossos clientes estão buscando a computação acelerada da NVIDIA para potencializar o desenvolvimento eficiente de LLMs para avançar na IA generativa.”
“Essa otimização facilitará a execução das cargas de trabalho e a implementação cada vez mais eficiente da IA generativa para os clientes. Essa parceria reforça nosso compromisso em contribuir cada vez mais para o avanço de novas tecnologias”, ressalta Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.
Integrações NVIDIA para acelerar o desenvolvimento de IA e ciência de dados
A estrutura do Google para a construção de grandes modelos de linguagem (LLMs), PaxML, agora está otimizada para computação acelerada NVIDIA.
Originalmente desenvolvido para abranger várias fatias do acelerador Google TPU, o PaxML agora permite que os desenvolvedores usem GPUs NVIDIA® H100 e A100 Tensor Core para experimentação e escalabilidade avançadas e totalmente configuráveis. Um contêiner PaxML otimizado para GPU já está disponível no catálogo de software NVIDIA NGC™. Além disso, o PaxML é executado em JAX, que foi otimizado para GPUs que utilizam o compilador OpenXLA.
O Google DeepMind e outros pesquisadores do Google estão entre os primeiros a usar PaxML com GPUs NVIDIA para pesquisas exploratórias.
O contêiner otimizado para PaxML da NVIDIA estará disponível imediatamente no registro de contêiner NVIDIA NGC para pesquisadores, startups e empresas em todo o mundo que estão construindo a próxima geração de aplicações baseadas em IA.
Além disso, as empresas anunciaram a integração do serverless Spark do Google com GPUs NVIDIA por meio do serviço Google’s Dataproc. Isso ajudará os cientistas de dados a acelerarem as cargas de trabalho do Apache Spark para preparar dados para o desenvolvimento de IA.