NVIDIA Vera Rubin abre fronteira dos agentes de IA

NVIDIA Vera Rubin abre fronteira dos agentes de IA

Solução apresenta sete novos chips para escalar as maiores fábricas de IA do mundo com infraestrutura configurável e otimizada para cada fase, desde o pré-treinamento, pós-treinamento e escalonamento em tempo de teste até a inferência de agentes

A NVIDIA anuncia que a plataforma NVIDIA Vera Rubin está abrindo a próxima fronteira da IA ativa, com sete novos chips, agora em plena produção para dimensionar as maiores fábricas de IA do mundo.

A plataforma reúne a CPU NVIDIA Vera, a GPU NVIDIA Rubin, o switch NVIDIA NVLink™6, a SuperNIC NVIDIA ConnectX®-9, a DPU NVIDIA BlueField®-4 e o switch Ethernet NVIDIA Spectrum™-6, além da recém-integrada LPU NVIDIA Groq 3. Projetados para operar em conjunto como um incrível supercomputador de IA, os chips potencializam todas as fases da IA — desde o pré-treinamento em larga escala, pós-treinamento e escalonamento em tempo de teste até a inferência de agentes em tempo real.

“Vera Rubin representa um salto geracional — sete chips inovadores, cinco racks, um supercomputador gigante — projetado para impulsionar todas as fases da IA”, diz Jensen Huang, fundador e CEO da NVIDIA. “O ponto de inflexão da IA com agentes chegou com Vera Rubin, dando início à maior expansão de infraestrutura da história”.

“Empresas e desenvolvedores estão usando o Claude para raciocínios cada vez mais complexos, fluxos de trabalho com agentes e decisões de missão crítica. Isso exige uma infraestrutura capaz de acompanhar o ritmo”, afirma Dario Amodei, CEO e cofundador da Anthropic. “A plataforma Vera Rubin da NVIDIA nos oferece a capacidade de computação, rede e design de sistema para continuarmos entregando resultados, ao mesmo tempo que aprimoramos a segurança e a confiabilidade das quais nossos clientes dependem.”

“A infraestrutura da NVIDIA é a base que nos permite continuar expandindo as fronteiras da IA”, explica Sam Altman, CEO da OpenAI. “Com a NVIDIA Vera Rubin, executaremos modelos e agentes mais poderosos em escala massiva e forneceremos sistemas mais rápidos e confiáveis para centenas de milhões de pessoas”.

“Estamos entrando na era da IA baseada em agentes — sistemas capazes de entender contexto, tomar decisões e executar tarefas complexas. Com a evolução da arquitetura NVIDIA Vera Rubin, vemos a empresa se posicionar na vanguarda dessa revolução ao viabilizar o poder de computação necessário para sustentar esses novos modelos, que exigem níveis sem precedentes de processamento, memória e eficiência para operar em escala. O objetivo é garantir que o mercado corporativo siga tendo a infraestrutura necessária para transformar toda essa inteligência em produtividade real e inovação contínua”, pontua Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.

Transição para sistemas em escala de pontos por dispositivo (POD)

A inovação está impulsionando uma rápida evolução na infraestrutura de IA — de chips discretos e servidores independentes para sistemas totalmente integrados em escala de rack, implantações em escala de POD, fábricas de IA e IA soberana. Esses avanços estão gerando ganhos expressivos de desempenho, melhorando a relação custo-benefício para organizações de todos os portes e setores — de startups e empresas de médio porte a instituições público-privadas e grandes corporações — ao mesmo tempo que ajudam a democratizar o acesso à IA e aprimorar a eficiência energética para atender às cargas de trabalho mais exigentes do mundo.

Por meio de um profundo projeto conjunto em computação, rede e armazenamento, com o suporte de um ecossistema de mais de 80 parceiros do ecossistema NVIDIA MGX e uma cadeia de suprimentos global, a NVIDIA Vera Rubin oferece a plataforma NVIDIA POD em escala mais abrangente — um supercomputador onde vários racks projetados especificamente para IA trabalham juntos como um sistema massivo e coerente.

Rack NVIDIA Vera Rubin NVL72

A solução integra 72 GPUs Rubin e 36 CPUs Vera conectadas por NVLink 6, juntamente com ConnectX-9 SuperNICs e DPUs BlueField-4, o que proporciona uma eficiência inovadora — treinando grandes modelos de mistura de especialistas com um quarto do número de GPUs em comparação com a plataforma NVIDIA Blackwell e alcançando uma taxa de transferência de inferência até 10 vezes maior por watt a um décimo do custo por token.

Projetado para fábricas de IA em hiperescala em todo o mundo, o NVL72 se integra perfeitamente com o NVIDIA Quantum-X800 InfiniBand e o Spectrum-X Ethernet para manter alta utilização em clusters massivos de GPUs, o que reduz o tempo de treinamento e o custo total de propriedade.

Rack de CPUs NVIDIA Vera é ideal

Para cargas de trabalho de aprendizado por reforço e agentes de IA, que dependem de um grande número de ambientes baseados em CPU para testar e validar os resultados gerados por modelos executados em sistemas de GPU.

NVIDIA Vera CPU Rack oferece uma infraestrutura densa com refrigeração líquida, construída sobre a plataforma NVIDIA MGX, integrando 256 CPUs Vera para fornecer capacidade escalável e com eficiência energética, além de desempenho de thread único de classe mundial, desbloqueando a IA ativa em escala.

Integrados à rede Ethernet Spectrum-X, os racks de CPU Vera mantêm os ambientes de CPU rigorosamente sincronizados em toda a fábrica de IA. Juntamente com os racks de computação de GPU, eles fornecem a base de CPU para o agente de IA em larga escala e aprendizado por reforço — com o Vera oferecendo resultados duas vezes mais eficientes e 50% mais rápidos do que as CPUs tradicionais.

NVIDIA Groq 3 LPX Rack

A solução representa um marco na computação acelerada. Projetado para as demandas de baixa latência e grande contexto de sistemas agentes, o LPX e o Vera Rubin unem o desempenho extremo de ambos os processadores para oferecer até 35 vezes mais taxa de transferência de inferência por megawatt e até 10 vezes mais oportunidades de receita para modelos com trilhões de parâmetros.

Em grande escala, uma frota de LPUs funciona como um único processador gigante para aceleração de inferência rápida e determinística. O rack LPX com 256 processadores LPU possui 128 GB de SRAM integrada e 640 TB/s de largura de banda escalável. Implementadas com a Vera Rubin NVL72, as GPUs Rubin e as LPUs impulsionam a decodificação, computando conjuntamente todas as camadas do modelo de IA para cada token de saída.

Otimizada para modelos com trilhões de parâmetros e contexto com milhões de tokens, a arquitetura LPX, projetada em conjunto com a Vera Rubin, maximiza a eficiência em termos de energia, memória e computação. O aumento na taxa de transferência por watt e no desempenho por token desbloqueia um novo patamar de inferência ultra-premium com trilhões de parâmetros e milhões de contextos, expandindo as oportunidades de receita para todos os provedores de IA. Totalmente refrigerada a líquido e construída sobre a infraestrutura MGX, a LPX se integra perfeitamente às fábricas de IA de última geração da Vera Rubin, que estarão disponíveis no segundo semestre deste ano.

Já o sistema de rack NVIDIA BlueField-4 STX é uma infraestrutura de armazenamento nativa para IA que estende a memória da GPU de forma transparente por todo o POD. Com a tecnologia BlueField-4 — que combina a CPU NVIDIA Vera e a SuperNIC NVIDIA ConnectX-9 — o STX oferece uma camada compartilhada de alta largura de banda otimizada para armazenar e recuperar os dados massivos de cache chave-valor gerados por grandes modelos de linguagem e fluxos de trabalho de IA com agentes.

Por sua vez, o NVIDIA DOCA Memos™ — uma nova estrutura DOCA que potencializa o armazenamento BlueField-4 — permite o processamento dedicado de cache KV para aumentar a taxa de transferência de inferência em até 5 vezes, ao mesmo tempo que melhora significativamente a eficiência energética em comparação com arquiteturas de armazenamento de uso geral. O resultado é um contexto abrangente em todo o POD que proporciona interações mais rápidas e com múltiplas etapas com agentes de IA, serviços de IA mais escaláveis e maior utilização geral da infraestrutura.

“O sistema de armazenamento de memória contextual em escala de rack NVIDIA BlueField-4 STX proporcionará um aumento de desempenho crucial, necessário para escalar exponencialmente nossos esforços em IA ativa”, diz Timothée Lacroix, cofundador e diretor de tecnologia da Mistral AI. “Ao oferecer uma nova camada de armazenamento projetada especificamente para a memória de agentes de IA, a STX está em uma posição ideal para garantir que nossos modelos possam manter a coerência e a velocidade ao raciocinar sobre conjuntos de dados massivos”.

Rack Ethernet Spectrum-6 SPX da NVIDIA

O rack Ethernet Spectrum-6 SPX foi projetado para acelerar o tráfego leste-oeste em fábricas de IA. Configurável com switches Spectrum-X Ethernet ou NVIDIA Quantum-X800 InfiniBand, ele oferece conectividade rack a rack de baixa latência e alta taxa de transferência em escala.

A tecnologia Spectrum-X Ethernet Photonics com óptica co-embalada alcança uma eficiência de potência óptica até 5 vezes maior e uma resiliência 10 vezes superior em comparação com os transceptores plugáveis tradicionais.

Aprimorando a resiliência e a eficiência energética

A NVIDIA, juntamente com mais de 200 parceiros de infraestrutura de data center, anuncia a plataforma NVIDIA DSX para Vera Rubin. Isso inclui o DSX Max-Q, que permite o provisionamento dinâmico de energia em toda a fábrica de IA, o que resulta na implantação de 30% mais infraestrutura de IA em um data center com energia fixa. O novo software DSX Flex permite que as fábricas de IA sejam ativos flexíveis em relação à rede elétrica, liberando 100 gigawatts de energia ociosa da rede.

A NVIDIA também lança o projeto de referência Vera Rubin DSX AI Factory , um modelo para infraestrutura de IA co-criada que maximiza tokens por watt e o rendimento geral, o que melhora a resiliência do sistema e acelera o tempo até a primeira produção.

Ao integrar de forma precisa computação, rede, armazenamento, energia e refrigeração, a arquitetura aumenta a eficiência energética e garante que as fábricas de IA possam ser dimensionadas de forma confiável sob cargas de trabalho contínuas e de alta intensidade, com tempo de atividade máximo.

Amplo suporte do ecossistema

Os produtos baseados em Vera Rubin estarão disponíveis por meio de parceiros a partir do segundo semestre deste ano. Isso inclui os principais provedores de nuvem, como Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure, juntamente com os parceiros de nuvem da NVIDIA: CoreWeave, Crusoe , Lambda, Nebius , Nscale e Together AI.

Espera-se que os fabricantes globais de sistemas Cisco, Dell Technologies , HPE , Lenovo e Supermicro forneçam uma ampla gama de servidores baseados em produtos Vera Rubin, assim como Aivres , ASUS , Foxconn, GIGABYTE, Inventec, Pegatron, Quanta Cloud Technology (QCT), Wistron e Wiwynn .

Laboratórios de IA e desenvolvedores de modelos de ponta, incluindo Anthropic, Meta, Mistral AI e OpenAI, estão buscando utilizar a plataforma NVIDIA Vera Rubin para treinar modelos maiores e mais capazes, além de atender a sistemas multimodais de longo contexto com menor latência e custo do que as gerações anteriores de GPUs.

Sobre a NVIDIA

Desde sua fundação em 1993, a NVIDIA (NASDAQ: NVDA) tem sido pioneira em computação acelerada. A invenção da GPU pela empresa em 1999 estimulou o crescimento do mercado de games para PC, redefiniu a computação gráfica, iniciou a era da IA moderna e tem ajudado a digitalização industrial em todos os mercados. A NVIDIA agora é uma empresa de infraestrutura de computação full-stack com soluções em escala de data center que estão revolucionando o setor. Mais informações em: https://www.nvidia.com/pt-br/.

Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.