A memória HBM se torna o fator limitante na inteligência artificial
A indústria de tecnologia está enfrentando um novo desafio com a memória HBM, que se tornou o ponto crítico mais caro e estratégico na inteligência artificial (IA). Recentemente, surgiram informações de que as GPUs NVIDIA Vera Rubin não conseguirão alcançar a meta inicial de 22 TB/s de largura de banda de memória com HBM4, ficando próximas de 20 TB/s devido a limitações práticas na produção do HBM4 nas velocidades esperadas.
Esse ajuste técnico, que poderia ser visto como uma simples correção, revela um problema mais profundo: a indústria está pressionando HBM4 ao seu limite antes mesmo que a tecnologia atinja sua maturidade em grande escala. Os principais fornecedores, SK hynix e Samsung, moldam a realidade de todo o ecossistema, que se ajusta à nova normalidade.
A pressão da NVIDIA por 11 Gb/s por pin de HBM4 foi uma tentativa de elevar os padrões. No entanto, os fabricantes preferem uma cifra mais realista, próxima a 10 Gb/s por pin, o que compromete a largura de banda total do pacote de memória. Este aspecto se torna ainda mais crítico, considerando que HBM4 representa uma mudança estrutural em relação às gerações anteriores, com uma interface de 2.048 bits por stack, dobrando a largura anterior.
O cenário competitivo também se intensifica, uma vez que a AMD está projetando sua próxima geração de aceleradores, a Instinct MI450 Series, para alcançar 19,6 TB/s de largura de banda. Assim, a diferença entre a Vera Rubin e os produtos da AMD se torna cada vez menor, e a competição não gira mais apenas em torno da memória, mas também da arquitetura, interconexão e custo total.
Apesar dos desafios, a NVIDIA ainda deve apresentar um salto significativo em relação à geração anterior, com a Vera Rubin oferecendo um avanço notável em comparação ao H100, que tem uma largura de banda de apenas 3,35 TB/s. Assim, mesmo que a meta inicial não seja alcançada, a Vera Rubin representa um marco na evolução da memória HBM e na capacidade de processamento para IA.
A indústria deve considerar essa dinâmica entre as especificações e a produção. Reservar capacidade é uma coisa, mas garantir que as metas ambiciosas sejam atingidas a tempo é um verdadeiro desafio. O valor e a complexidade da memória HBM colocam-na como um ativo central na guerra competitiva do mercado de IA, onde as diferenças finais entre os produtos serão medidas em frações de desempenho, refletindo a importância das camadas adicionais de software e infraestrutura.






