Durante anos, a conversa sobre desempenho em inteligência artificial (IA) focou-se na potência de cálculo: mais GPUs, mais núcleos, mais FLOPs. No entanto, à medida que os modelos se expandem e as arquiteturas se tornam mais paralelas, o gargalo está se deslocando para um terreno menos “atraente”, mas mais determinante: a memória. O acesso a memórias com muito alto largura de banda e baixa latência está se tornando o fator decisivo para o desempenho de um cluster e para os custos operacionais.
Nesse contexto, surge o ZAM (Z-Angle Memory), uma proposta de memória empilhada que a Intel está desenvolvendo em colaboração com a SAIMEMORY, uma subsidiária ligada à SoftBank. O objetivo é oferecer uma alternativa à HBM (High Bandwidth Memory), atualmente o padrão de mercado para fornecer suporte a GPUs e aceleradores em cargas de IA em grande escala.
A HBM não é um tipo de RAM comum. É uma memória DRAM empilhada verticalmente e conectada através de tecnologias avançadas de embalagem (2.5D/3D), projetada para fornecer um enorme largura de banda com melhor eficiência energética. Para treinamento e inferência exigente em IA, a capacidade de mover dados da memória para os motores de computação pode ser tão crucial quanto o próprio silício.
Entretanto, essa vantagem tem um custo. A fabricação de HBM em larga escala requer processos sofisticados e uma capacidade de produção concentrada, resultando em um mercado dominado por poucos fornecedores. Com a demanda por IA em alta, a pressão sobre a cadeia de suprimentos de HBM se tornou um fator crítico que influencia cronogramas de implantação e a escalabilidade das operações.
A parceria entre Intel e SAIMEMORY coloca a Intel como parceira de tecnologia e inovação, enquanto a SAIMEMORY liderará o desenvolvimento e a comercialização do ZAM. Prevê-se o início do trabalho no primeiro trimestre de 2026, com protótipos previstos para 2027 e um objetivo de implantação em larga escala até 2030. O ZAM promete, segundo as informações divulgadas, apresentar memórias com uma capacidade 2 a 3 vezes maior que a HBM, reduzindo o consumo em até 50% e com custos comparáveis ou inferiores.
A questão que muitos se fazem é se o ZAM pode realmente substituir a HBM. Embora os protótipos estejam previstos para 2027, o ZAM é mais uma aposta estratégica para a segunda metade da década do que uma solução imediata para a atual saturação da HBM. No entanto, mesmo como um complemento, o ZAM pode ter relevância em cenários como servidores de IA de pequeno e médio porte, onde o custo total é uma preocupação.
Esse movimento da Intel e da SoftBank destaca a evolução da “corrida da IA”, onde a vantagem competitiva não está mais apenas na concepção de chips, mas também no controle sobre o triângulo de computação, memória e energia. Se a pressão sobre a HBM continuar, qualquer alternativa crível pode ter impacto mesmo antes de seu lançamento, estimulando investimentos e forçando diversificação nas estratégias de memória. A credibilidade, neste campo, exigirá a demonstração de protótipos funcionais e métodos de produção alinhados.






