Akamai Avança na Orquestração Inteligente de IA com Lançamento da AI Grid
A empresa Akamai deu um passo significativo em sua estratégia de Inteligência Artificial ao lançar a AI Grid Intelligent Orchestration, uma nova camada de orquestração para inferência distribuída. De acordo com a companhia, esta implementação transforma sua rede na primeira do mundo a operar com o design de referência NVIDIA AI Grid em escala global. Este sistema aproveita a infraestrutura do Akamai Inference Cloud e utiliza milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, aproximando a inferência dos usuários em vez de concentrá-la em grandes clusters centrais.
Essa nova abordagem representa uma mudança significativa no mercado, que nos últimos anos esteve centrada em fábricas de IA centralizadas, otimizadas para treinamento e desenvolvimento de modelos avançados. A Akamai, porém, argumenta que muitas cargas de trabalho reais de inferência — especialmente aquelas relacionadas a vídeo em tempo real, agentes de IA, personalização e IA física — necessitam de baixa latência e a capacidade de executar solicitações no local mais adequado, equilibrando custo e desempenho.
Akamai propõe uma arquitetura que distribui o processamento entre o edge, regiões intermediárias e nós centrais, utilizando um orquestrador que atua em tempo real para decidir onde executar cada pedido. Essa nova abordagem visa otimizar o que a empresa chama de “tokenomics”, ou seja, custo por token, tempo até o primeiro token e throughput global. Na prática, técnicas como caching semântico e roteamento inteligente serão implementadas para garantir que as GPUs mais potentes sejam utilizadas para as cargas que realmente necessitam delas, enquanto outras solicitações serão redirecionadas para recursos mais econômicos.
Com uma presença em mais de 4.400 locais edge, Akamai afirma que seu alcance permite o processamento de solicitações diretamente no ponto de contato digital com o usuário, eliminando latências adicionais comuns em nuvens tradicionais. A NVIDIA também destaca essa iniciativa como parte de sua visão para o AI Grid, uma arquitetura projetada para distribuir e orquestrar inteligência artificial em múltiplas localizações.
No coração técnico do serviço estão as GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, que, de acordo com a Akamai, proporcionam um aumento significativo de desempenho em relação a modelos anteriores. A empresa aponta que a Blackwell oferece um throughput até 1,63 vezes superior ao do modelo H100 dentro de sua própria nuvem, um dado que deve ser interpretado com cautela, dada sua natureza de benchmark interno.
A Akamai pretende se diferenciar do mero “hospedagem de GPUs”, enfatizando que não está apenas vendendo acesso a aceleradores, mas oferecendo uma plataforma de inferência edge com roteamento inteligente, proteção contra abusos de modelos, controles de identidade e segurança específica para IA. Essa camada de segurança é cada vez mais relevante em um momento em que muitas organizações se preocupam com os riscos associados a exposições de modelos, como injeções de prompt ou scraping.
A empresa havia sinalizado essa ofensiva no final de 2025, ao lançar o Akamai Inference Cloud, vinculado ao crescimento da IA inferencial fora dos centros de dados tradicionais. Com um contrato recente avaliado em 200 milhões de dólares com uma grande tecnologia americana, para o fornecimento de um cluster de milhares de GPUs Blackwell, a Akamai busca uma nova escala para sua aposta.
Essas movimentações não tornam a Akamai um concorrente direto das grandes empresas de hyperscale, mas indicam seu intento de se consolidar na camada de inferência distribuída, onde a proximidade e a orquestração são tão cruciais quanto o hardware. A leitura mais interessante deste lançamento é que Akamai não está afirmando que o futuro da IA deve se excluir das “fábricas de IA”, mas sugere que essas estruturas precisarão se expandir para o edge para atender à próxima geração de aplicações em tempo real.
Akamai Inference Cloud já está disponível para clientes empresariais qualificados, oferecendo assim acesso imediato a essa nova camada de orquestração.





