A próxima geração de memória de alto desempenho, conhecida como HBM4, está prestes a revolucionar o mercado, apresentando não apenas um aumento significativo na velocidade, mas também uma elevação nos custos. Um relatório da firma de análise TrendForce indica que a nova tecnologia custará pelo menos 30% a mais do que a atual HBM3E, que já teve um aumento de 20% em relação à sua predecessora.
Esse aumento de preços está vinculado à complexidade técnica da nova arquitetura. A HBM4 dobrará o número de pinos de entrada/saída em comparação à HBM3E, passando de 1.024 para 2.048 pinos. Essa mudança exigirá designs de chip maiores e mais intricados. Em compensação, a nova geração promete um impressionante aumento de largura de banda de até 2.048 GB/s por pilha a 8 Gbit/s por pino, conforme especificações ratificadas pelo consórcio JEDEC.
Em busca de aprimorar a integração entre memória e processador, empresas como Samsung e SK Hynix estão desenvolvendo um novo design denominado “logic-based base die”. Essa inovação visa reduzir a latência e aumentar a eficiência, um fator crucial em aplicações de inteligência artificial e computação de alto desempenho.
A demanda por memória HBM continua crescente. A TrendForce estima que o volume total de vendas de HBM atinja 30.000 milhões de gigabits até 2026, o que equivale a 3,75 exabytes. Neste cenário, a HBM4 começará a substituir a HBM3E como a principal solução na segunda metade do próximo ano.
Os maiores fabricantes de chips estão preparando lançamentos de produtos que integrarão essa nova tecnologia. A Nvidia anunciou que suas futuras GPUs da geração Rubin, esperadas para 2026, utilizarão memória HBM4. A SK Hynix, por sua vez, já iniciou o envio de amostras de seus primeiros chips HBM4.
Com a padronização da HBM4 e as primeiras amostras em circulação, a indústria se ajusta para um novo patamar em capacidade e velocidade, além dos custos. Um investimento que pode ser necessário para manter a liderança em um mercado cada vez mais exigente em inteligência artificial.