Na GTC 2026, a ASUS apresenta ambicioso portfólio de infraestrutura de inteligência artificial
A ASUS aproveitou a GTC 2026 para apresentar uma de suas iniciativas mais ousadas em infraestrutura de inteligência artificial, revelando uma gama completa de sistemas que vão desde fábricas de IA em escala de rack até equipamentos de desktop, soluções edge e empresariais. Todo esse ecossistema é articulado em torno da plataforma NVIDIA Vera Rubin. A mensagem da empresa taiwanesa é clara: a próxima fase da IA não se concentrará exclusivamente em grandes centros de dados, mas em uma combinação de alto desempenho, resfriamento avançado, flexibilidade de implantação e controle local dos dados.
A inovação mais notável da ASUS é sua infraestrutura totalmente refrigerada a líquido, uma resposta a uma realidade crescente: os novos clusters de IA consomem tanta energia e geram tanto calor que a refrigeração tradicional se torna insuficiente em muitos cenários. A empresa afirma que sua proposta tem como objetivo reduzir tanto o PUE (Power Usage Effectiveness) quanto o TCO (Total Cost of Ownership). No entanto, como é comum nesse tipo de anúncio, será necessário avaliar como essas promessas se concretizam em implementações reais e comparáveis entre fabricantes.
A peça central do anúncio é o ASUS AI POD, baseado na plataforma NVIDIA Vera Rubin NVL72, especificamente na configuração XA VR721-E3, que a ASUS descreve como uma plataforma 100% refrigerada a líquido para grandes cargas de trabalho de IA. A empresa garante que este sistema pode operar com um TDP de até 227 kW em modo MaxP ou 187 kW em MaxQ, focado em modelos bilionários e ambientes em que a densidade computacional é um fator crítico. Além disso, ASUS afirma que a plataforma pode oferecer até dez vezes mais desempenho por watt, uma afirmação vinculada ao avanço geracional da plataforma Rubin.
Para apoiar essa proposta, a ASUS confirmou parcerias com empresas como Vertiv e Schneider Electric, visando oferecer uma camada completa de alimentação e refrigeração para diferentes tipos de implantações. Esse detalhe é importante, pois na IA de grande escala, o servidor não é apenas uma caixa com GPUs, mas parte de um sistema mais amplo em que energia, refrigeração, redundância e design do centro de dados são quase tão cruciais quanto o poder de computação.
Além do AI POD, a ASUS apresentou novos servidores baseados na NVIDIA HGX Rubin NVL8, oferecendo uma estratégia mais flexível. O XA NR1I-E12L combina refrigeração líquida direta no chip para a base HGX Rubin NVL8, enquanto o XA NR1I-E12LR é um sistema completamente refrigerado a líquido. Essa abordagem visa facilitar uma transição gradual para os clientes que ainda não estão prontos para adotar a refrigeração líquida total em todo o rack.
A ASUS também se preocupou em levar capacidades avançadas de IA para o desktop do desenvolvedor e para o edge industrial. Nesse sentido, foram apresentados o ASUS ExpertCenter Pro ET900N G3 e o ASUS Ascent GX10, ambos projetados para oferecer memória e desempenho suficientes para trabalhar com modelos robustos e agentes autônomos, minimizando a dependência da nuvem.
No extremo edge do portfólio, a empresa lançou o PE3000N, um motor de inferência robustecido pelo NVIDIA Jetson Thor, com desempenho afirmado de 2.070 TFLOPS, focado na fusão de sensores, navegação autônoma e cargas físicas de IA. A ambição é construir uma cadeia completa que vá desde o treinamento e ajuste de modelos até a implementação em sistemas edge, onde latência, resistência física e autonomia são primordiais.
Por fim, a ASUS reforçou sua estratégia de software e posicionamento empresarial com o ASUS AI Hub, uma plataforma on-premise que já demonstrou ser capaz de atender internamente mais de 10.000 funcionários, gerando picos superiores a 600 solicitações por hora com uma precisão OCR acima de 80%. A empresa também formou parcerias com fornecedores de armazenamento certificados pela NVIDIA, como IBM e DDN, para completar sua oferta em ambientes de IA e HPC.
Com esse movimento, a ASUS se alinha à configuração integral de fábricas de IA, abrangendo desde soluções em escala de rack até desenvolvimentos em desktop e agentes locais. O desafio agora será demonstrar que essa amplitude de catálogo pode ser traduzida em implantação uniforme e integração eficaz de peças distintas. É evidente que a IA empresarial de 2026 está sendo apresentada não apenas como servidores com aceleradores, mas como um ecossistema completo envolvendo potência, resfriamento, software, armazenamento e segurança dos dados. A ASUS quer fazer parte dessa conversa.






