A NVIDIA apresentou uma nova era para a infraestrutura de inteligência artificial durante o GTC 2026, com o lançamento da plataforma Vera Rubin. De acordo com a empresa, Vera Rubin não se restringe mais a uma única GPU poderosa, mas sim a um sistema completo, composto por sete chips e cinco tipos de racks, que já estão em produção. Este “supercomputador” foi projetado para abranger todas as etapas da IA moderna, incluindo pré-treinamento, pós-treinamento, escalonamento em tempo real e inferência ágil.
Com a Vera Rubin, a NVIDIA renova seu enfoque em relação às gerações anteriores de GPUs. Anteriormente, a empresa promovia a ideia de uma única família de GPUs como capaz de atender a todas as necessidades relevantes em IA. Agora, o novo sistema ilustra uma abordagem mais complexa e pragmática, incorporando CPUs específicas para ambientes de agentes e aprendizado por reforço, além de LPUs de Groq para inferência de baixa latência. A plataforma inclui também racks de armazenamento otimizados para memória contextual e uma rede robusta composta por Ethernet e InfiniBand.
O modelo Vera Rubin NVL72 é um dos destaques, oferecendo 72 GPUs Rubin e 36 CPUs Vera conectadas por meio de tecnologias avançadas como NVLink 6. Segundo a NVIDIA, esse arranjo possibilita treinamento de grandes modelos com eficiência superior e custos significativamente reduzidos em comparação a gerações anteriores, prometendo até dez vezes mais throughput de inferência por watt. Além disso, o novo Vera CPU Rack, com capacidade para 256 CPUs Vera, foca em suportar ambientes de execução para agentes de IA e sistemas de aprendizado por reforço, que exigem maior capacidade de processamento.
Um dos anúncios mais marcantes é a integração do rack Groq 3 LPX, que abriga 256 processadores LPU, prometendo potencializar a inferência ao permitir que GPUs e LPUs trabalhem em conjunto. A NVIDIA afirma que essa configuração pode oferecer desempenho até 35 vezes superior em termos de inferência, reconfigurando a abordagem tradicional das GPUs.
A nova arquitetura enfatiza que a eficiência já não depende apenas do poder de processamento, mas também da infraestrutura de armazenamento e da rede. A plataforma inclui um rack de armazenamento chamado BlueField-4 STX, capacitado para estender a memória de contexto, além de tecnologias de rede como Spectrum-6 SPX Ethernet, que aprimoram a comunicação entre os racks.
NVIDIA planeja disponibilizar produtos baseados na Vera Rubin através de parcerias na segunda metade de 2026, com a expectativa de colaboração entre gigantes da nuvem como AWS, Google Cloud e Microsoft Azure, além de fabricantes de hardware renomados. Entretanto, perguntas permanecem sobre a adoção real da tecnologia e o desempenho fora dos ambientes de demonstração, refletindo uma transição significativa de foco das GPUs para um modelo mais abrangente de fábrica de IA.






