A corrida pela implementação da Inteligência Artificial (IA) em larga escala ultrapassa a mera potência das GPUs e, em 2026, o foco do setor começa a se deslocar para um componente fundamental, embora menos visível: a memória, especialmente a HBM (High Bandwidth Memory) e a DRAM avançada, essenciais para alimentar aceleradores em centros de dados. Esta mudança de prioridades já está se refletindo nas estimativas financeiras em circulação no mercado.
Pesquisas recentes atribuídas ao Morgan Stanley Research indicam revisões otimistas para a Samsung Electronics e a SK hynix entre 2026 e 2028. A mensagem é clara para a comunidade tecnológica: à medida que a IA continua a escalar, a memória não é apenas um componente; ela se torna um fator limitante que poderá redefinir margens, investimentos e estratégias industriais.
No que diz respeito à Samsung, as novas previsões para o exercício fiscal de 2027 (FY27E) apontam um aumento nas vendas do grupo, saltando para 647,68 trilhões de won, um incremento de 8% em relação às estimativas anteriores. O resultado mais notável está no lucro operacional, que deve passar de 241,45 trilhões para 317,38 trilhões de won, representando uma revisão de impressionantes 31%. Com isso, o lucro operacional estimado da empresa aumenta de 37,0% para 49,0%, sinalizando que o núcleo do negócio está moldando a lógica de operações de todo o conglomerado.
Para a SK hynix, que já está mais focada em memória, as vendas projetadas para FY27E foram revisadas de 258 bilhões para 304,88 trilhões de won, um acréscimo de 18%. O lucro operacional também apresenta uma melhoria significativa, subindo 24%, de 181,34 trilhões para 225,35 trilhões de won. Os números indicam que, se a cadeia de suprimentos mantiver a tensão em torno da HBM, a SK hynix poderá sustentar margens que, em tempos anteriores, eram associadas mais a serviços e não à fabricação de hardware.
Esse cenário levanta questões cruciais para a infraestrutura de IA. A HBM e a DRAM avançada estão se tornando elementos essenciais no planejamento estratégico: garantir a memória e a embalagem adequada se tornou tão importante quanto reservar GPUs. Da mesma forma, a pressão agora se concentra na arquitetura, exigindo uma otimização de modelos e estratégias de inferência que não apenas melhoram a eficiência computacional, mas também a eficiência de memória.
Entretanto, o risco subjacente permanece: as estimativas otimistas também trazem um alerta. Elas são baseadas em suposições sobre demanda, preços e capacidade. Caso a escassez de memória se normalize antes do esperado ou se o gasto com IA se torne mais seletivo, os altos níveis de margem podem ser rapidamente corrigidos.
O que está claro é que, pela primeira vez em anos, a memória está se consolidando como o componente central na definição de prazos, orçamentos e prioridades, refletindo as novas dinâmicas financeiras das grandes empresas do setor.




