A Hewlett Packard Enterprise (HPE) anunciou na GTC 2026 uma série de avanços significativos em sua carteira de soluções “NVIDIA AI Computing by HPE”, visando se estabelecer como um player de destaque em dois segmentos que representam uma parcela significativa do investimento em infraestrutura: fábricas de IA em grande escala e supercomputação voltada para cargas mistas de IA e HPC. A empresa revelou novas opções em computação, rede, software e serviços, direcionadas a provedores de serviços, entidades públicas, laboratórios de pesquisa e grandes corporações.
Este anuncio chega em um contexto em que o mercado já não busca apenas servidores equipados com GPUs, mas arquiteturas completas que suportem treinamento, inferência, multi-inquilinos, governança e refrigeração líquida, com integração significativamente madura. Para atender a essa demanda crescente, a HPE reforçou seu portfólio de “HPE AI Factory” com as plataformas “NVIDIA Vera Rubin” e “NVIDIA Blackwell”, além de novas funcionalidades de operação e certificação voltadas para ambientes em nuvem, soberanos e de pesquisa.
Um dos destaques da apresentação foi na área de supercomputação, com a revelação de uma das primeiras opções de blades de computação utilizando a “NVIDIA Vera CPU” para a plataforma “HPE Cray Supercomputing GX5000”. O novo “HPE Cray GX240 Compute Blade” poderá integrar até 16 CPUs NVIDIA Vera e escalar até 40 blades por rack, totalizando 640 CPUs Vera e mais de 56.000 núcleos Arm compatíveis com NVIDIA Olympus por rack, segundo informações da própria HPE. A HPE também adicionou a “NVIDIA Quantum-X800 InfiniBand” aos sistemas GX5000, aumentando a conectividade para grandes sistemas com switches de 144 portas e 800 Gb/s por porta.
Além disso, a HPE confirmou o lançamento do sistema “NVIDIA Vera Rubin NVL72 by HPE”, direcionado a implementações em larga escala. Esse sistema em rack combina 36 CPUs Vera, 72 GPUs Rubin, NVLink de sexta geração, ConnectX-9 SuperNICs e BlueField-4 DPUs, incorporando também refrigeração líquida e serviços de design de data centers da HPE, com disponibilidade prevista para dezembro de 2026.
Outra novidade significativa é o “HPE Compute XD700”, um novo servidor de IA que segue a inspiração do Open Compute Project e é construído sobre a “NVIDIA HGX Rubin NVL8”. A HPE afirma que cada rack do XD700 poderá abrigar até 128 GPUs Rubin, dobrando a densidade em comparação à geração anterior. Esse sistema será orientado tanto para treinamento quanto para inferência, com lançamento esperado para o início de 2027.
A HPE também destacou a importância do conceito de “AI factories at-scale and sovereign”, enfatizando que as infraestruturas devem não apenas permitir computação em larga escala, mas também atender a requisitos de soberania e operação multi-inquilinos. Nesse sentido, a empresa introduzirá suporte ao multi-tenancy por meio da “NVIDIA Multi-Instance GPU (MIG)”, com opções para passagem direta de GPU a máquinas virtuais e namespaces seguros dentro de ambientes Kubernetes, a partir da primavera de 2026.
Além disso, a HPE sublinhou que sua carteira “HPE AI Factory” está pronta para a validação do programa “NVIDIA Cloud Partner”, o que pode facilitar a certificação de provedores de nuvem que desejam implementar essas arquiteturas com uma referência aprovada pela NVIDIA. A companhia também integrará o “NVIDIA Mission Control” em seus ambientes “AI Factory at scale and sovereign”, uma ferramenta para orquestração, monitoramento e recuperação autônoma de fábricas de IA, com suporte previsto para 2026.
A HPE está se afastando de uma abordagem centrada apenas na venda de servidores e clusters, movendo-se em direção a uma plataforma de implementação de IA de extremo a extremo. A combinação com a NVIDIA oferece à HPE maior visibilidade e acesso a uma das rotas mais agressivas do setor. Porém, a empresa agora enfrenta o desafio de transformar essas promessas em sistemas operacionais, eficientes e viáveis comercialmente. Os prazos estabelecidos — com lançamentos entre 2026 e 2027 — indicam que a HPE pretende agir rapidamente, mas a verdadeira prova de fogo ocorrerá quando essas novas arquiteturas começarem a ser utilizadas em centros de dados de verdade.






