Um ajuste silencioso no catálogo da Amazon Web Services (AWS) voltou a chamar a atenção para uma realidade preocupante enfrentada por muitas empresas: a infraestrutura para inteligência artificial (IA) não apenas está em falta, mas também se tornou cada vez mais cara de ser planejada. Diversos veículos especializados notaram que a AWS aumentou em cerca de 15% o preço de seus EC2 Capacity Blocks for ML (blocos de capacidade reservada para cargas de machine learning) nas instâncias de ponta baseadas em NVIDIA H200.
De acordo com essas informações, a configuração p5e.48xlarge —com 8 GPUs NVIDIA H200— passou de $34,61 para $39,80 por hora na maioria das regiões, enquanto a p5en.48xlarge subiu de $36,18 para $41,61 por hora. Se essa alteração for confirmada de maneira consistente, o aumento é significativo: em projetos de treinamento ou inferência intensiva, um acréscimo de 15% pode impactar o orçamento de um trimestre inteiro, especialmente para equipes que já operam com margens estreitas.
O impacto do aumento se dá especificamente na reserva de GPUs, não apenas em “usar GPUs”. A essência do produto afetado, o Capacity Blocks for ML, é um mecanismo que permite reservar capacidade de GPU com antecedência, evitando assim a falta de estoque em momentos críticos, como durante longos treinamentos ou picos de inferência. A AWS apresenta esses blocos como uma forma de garantir instâncias de GPU, com durações que variam de períodos curtos a compromissos mais longos, especialmente em um ambiente onde a demanda é volátil.
Outro ponto importante é que a AWS indica que os preços desses blocos estão sujeitos a alterações, uma informação que é mencionada em sua documentação pública, na qual as tarifas são ajustadas e apresentadas como uma combinação de taxa de reserva e taxa de sistema operacional. Isso normaliza os ajustes sem que haja um comunicado formal.
A relevância do aumento não se resume ao percentual, mas sim ao tipo de instância. As famílias P5e e P5en se tornaram referências para cargas de IA robustas. A AWS posiciona essas instâncias como infraestrutura para treinar e implantar LLM e modelos gerativos, com configurações que podem chegar a 8 H200 por instância. Isso representa um padrão base para diversos produtos comerciais.
Com o aumento dos preços, surge também a necessidade de as empresas se adaptarem. Alguns pontos a serem considerados incluem a separação do custo por hora do custo por resultado, a reavaliação da estratégia de reserva em relação à elasticidade, e a auditoria contínua de preços. Comparar soluções em outros provedores ou adotar estratégias de resiliência também se torna crucial em um cenário de incertezas.
Diante deste cenário, a comunidade industrial observa com preocupação que a IA está criando um “peaje” por capacidade, refletindo a tensão de custos em um mercado cada vez mais competitivo.






