A disputa pela supremacia em computação de IA ganha um novo fôlego
A competitividade entre AMD e NVIDIA no setor de inteligência artificial (IA) intensifica-se, conforme novas informações surgem. De acordo com a publicação Wccftech, apoiada por declarações do diretor da AMD, Forrest Norrod, ambos os gigantes da tecnologia estão ajustando suas arquiteturas futuras — o modelo Instinct MI450/MI450X da AMD e a série Vera Rubin VR200 da NVIDIA. As modificações envolvem aumentos significativos no Total Graphics Power (TGP) e na largura de banda de memória, a fim de não ceder território no mercado.
Norrod descreveu o modelo MI450 como o “momento Milan” da AMD, referindo-se ao avanço que a linha EPYC 7003 teve no passado. Ele afirmou que a nova oferta da AMD será mais competitiva em comparação ao que se viu anteriormente, especialmente em relação à série Rubin da NVIDIA.
Mudanças no cenário
Acompanhe abaixo as especificações mais recentes:
-
Potência (TGP):
- AMD MI450X: um aumento de +200 W em relação às estimativas iniciais.
- NVIDIA Rubin (VR200): um salto de +500 W, chegando a 2.300 W por GPU.
-
Largura de banda de memória por GPU:
- AMD MI450: cerca de 19,6 TB/s.
- NVIDIA Rubin: aproximadamente 20,0 TB/s, um aumento considerável em relação aos 13 TB/s anteriormente estimados.
Ambas as empresas devem empregar a tecnologia HBM4 e utilizar os nós de produção da TSMC N3P, com um foco em designs de chiplet.
Expectativas para o futuro
Os lançamentos estão projetados para:
- AMD Instinct MI400 (MI450/MI450X): 2026.
- NVIDIA Vera Rubin VR200: segundo semestre de 2026.
As novas especificações indicam que a memória se tornará um fator decisivo para aplicações de IA, especialmente em cenários que demandam grande capacidade de cache e longos contextos de dados.
Desafios e considerações
As subidas significativas no TGP implicam em racks mais densos, exigindo soluções mais avançadas de resfriamento e energia para atender a esses novos padrões. Além disso, a competição entre as plataformas não se dará apenas pelas especificações das GPUs, mas também pela integração do sistema, interconexões, maturidade dos softwares e ecossistemas gerais.
Os próximos 6 a 12 meses serão cruciais para observar a escalabilidade da tecnologia HBM4, assim como a evolução das plataformas de sistemas e a otimização de software voltado para IA.
Os dados discutidos ainda são preliminares e devem ser tratados como indicadores até que AMD e NVIDIA confirmem suas especificações finais. O que se avizinha é um confronto mais acirrado em 2026, onde a escolha entre os provedores poderá depender mais da plataforma total e infraestrutura do que da ficha técnica isolada das GPUs.
A expectativa é que, se a AMD conseguir entregar capacidade superior de HBM, enquanto a NVIDIA mantiver sua vantagem no ecossistema e na interconexão, o próximo ciclo de inovações em IA será decisivo.

