Cloud Computing

21 jan, 2025

Oracle oferece o primeiro cluster de computação em nuvem em escala Zetta

Publicidade

A Oracle anunciou o primeiro cluster de computação em nuvem em escala zetta, acelerado pela plataforma NVIDIA Blackwell. A Oracle Cloud Infrastructure (OCI) está aceitando pedidos para o maior supercomputador de IA na nuvem — disponível com até 131.072 GPUs NVIDIA Blackwell.

“Temos uma das ofertas de infraestrutura de IA mais amplas e estamos apoiando clientes que estão executando algumas das cargas de trabalho de IA mais exigentes na nuvem”, disse Mahesh Thiagarajan, vice-presidente executivo da Oracle Cloud Infrastructure.

“Com a nuvem distribuída da Oracle, os clientes têm a flexibilidade de implantar serviços de nuvem e IA aonde quiserem, preservando os mais altos níveis de soberania de dados e IA.”

Primeiro cluster de computação em escala zetta do mundo

A OCI agora está aceitando pedidos para o maior supercomputador de IA na nuvem — disponível com até 131.072 GPUs NVIDIA Blackwell — oferecendo um desempenho máximo de 2,4 zettaFLOPS.

A escala máxima do OCI Supercluster oferece mais de três vezes o número de GPUs do supercomputador Frontier e mais de seis vezes o de outros provedores de nuvem.

Características

O OCI Supercluster inclui OCI Compute Bare Metal, latência ultrabaixa com RoCEv2 usando NICs ConnectX-7 e ConnectX-8 SuperNICs ou redes baseadas no NVIDIA Quantum-2 InfiniBand, e uma escolha de armazenamento HPC.

Os Superclusters da OCI podem ser encomendados com OCI Compute, alimentado por GPUs NVIDIA H100 ou H200 Tensor Core, ou GPUs NVIDIA Blackwell.

Superclusters OCI com GPUs H100 podem escalar até 16.384 GPUs, com até 65 ExaFLOPS de desempenho e 13Pb/s de taxa de transferência agregada de rede.

Superclusters OCI com GPUs H200 escalarão para 65.536 GPUs com até 260 ExaFLOPS de desempenho e 52Pb/s de taxa de transferência agregada de rede, e estarão disponíveis no final deste ano.

Superclusters OCI com instâncias bare-metal NVIDIA GB200 NVL72 refrigeradas a líquido usarão NVLink e NVLink Switch para permitir que até 72 GPUs Blackwell se comuniquem entre si com uma largura de banda agregada de 129,6 TB/s em um único domínio NVLink.

GPUs NVIDIA Blackwell, disponíveis no primeiro semestre de 2025, com a quinta geração do NVLink, NVLink Switch e rede de cluster permitirão uma comunicação perfeita entre GPUs em um único cluster.

Esacalabilidade

“À medida que empresas, pesquisadores e nações correm para inovar usando IA, o acesso a clusters de computação poderosos e software de IA é crucial”, disse Ian Buck, vice-presidente de Hiperescalabilidade e Computação de Alto Desempenho, NVIDIA.

“A plataforma completa de IA da NVIDIA na nuvem amplamente distribuída da Oracle oferecerá capacidades de computação de IA em uma escala sem precedentes para avançar os esforços de IA globalmente e ajudar organizações em todo o mundo a acelerar pesquisas, desenvolvimento e implementação.”

Clientes como WideLabs e Zoom estão aproveitando a infraestrutura de IA de alto desempenho da OCI, com poderosos controles de segurança e soberania.

WideLabs treina um dos maiores LLMs em português na OCI

WideLabs, uma startup de IA aplicada no Brasil, está treinando um dos maiores LLMs do Brasil, Amazonia IA, na OCI.

Eles desenvolveram o bAIgrapher, uma aplicação que usa seu LLM para gerar conteúdo biográfico com base em dados coletados de pacientes com doença de Alzheimer, ajudando-os a preservar memórias importantes.

A WideLabs usa a região Oracle Cloud São Paulo para rodar suas cargas de trabalho de IA, garantindo que dados sensíveis permaneçam dentro das fronteiras do país.

Isso permite que a WideLabs atenda aos requisitos de soberania de IA do Brasil, sendo capaz de controlar onde sua tecnologia de IA é implantada e operada.

A WideLabs utiliza a infraestrutura de IA da OCI com GPUs NVIDIA H100 para treinar seus LLMs, além do Oracle Kubernetes Engine para provisionar, gerenciar e operar contêineres acelerados por GPU em um Supercluster OCI composto por OCI Compute conectado com a rede de clusters baseada em RMDA da OCI.

“A infraestrutura de IA da OCI nos oferece a maior eficiência para treinar e rodar nossos LLMs”, disse Nelson Leoni, CEO da WideLabs. “A escala e flexibilidade da OCI são inestimáveis à medida que continuamos a inovar no setor de saúde e outros setores-chave.”

Zoom utiliza as capacidades de soberania da OCI para seu assistente de IA generativa

O Zoom, uma plataforma líder de colaboração com IA em primeiro lugar, está usando a OCI para fornecer inferência para o Zoom AI Companion, o assistente pessoal de IA da empresa disponível sem custo adicional.

O Zoom AI Companion ajuda os usuários a redigir e-mails e mensagens de chat, resumir reuniões e conversas de chat, gerar ideias em sessões de brainstorm com colegas e muito mais.

As capacidades de soberania de dados e IA da OCI ajudarão o Zoom a manter os dados dos clientes localmente na região e a apoiar os requisitos de soberania de IA na Arábia Saudita, onde a solução da OCI está sendo implementada inicialmente.

“O Zoom AI Companion está revolucionando a maneira como as organizações trabalham, com recursos de IA generativa de ponta disponíveis sem custo adicional para contas pagas dos clientes”, disse Bo Yan, chefe de IA do Zoom.

“Ao aproveitar as capacidades de inferência de IA da OCI, o Zoom é capaz de entregar resultados precisos com baixa latência, permitindo que os usuários colaborem de forma contínua, se comuniquem facilmente e aumentem a produtividade, eficiência e potencial como nunca.”

Recursos adicionais

LEIA TAMBÉM:

61% das organizações brasileiras investem mais de R$ 52 milhões em nuvem – Saiba quais são as preocupações dos executivos