Akamai Investe na Inferência de IA com Adoção de GPUs NVIDIA Blackwell
A Akamai, tradicionalmente associada à entrega de conteúdo via CDN, está se preparando para uma nova fase em sua evolução tecnológica. A empresa anunciou a aquisição de milhares de GPUs NVIDIA Blackwell, com a ambição de estabelecer uma das maiores plataformas de Inteligência Artificial (IA) distribuída do mundo. O objetivo é integrar essa infraestrutura na nuvem e na rede global da companhia até 2026.
Essa movimentação ocorre em um momento em que o mercado começa a reconhecer um novo paradigma na implementação de IA. As organizações se conscientizam de que a inferência — o uso de modelos em produção — é tão crucial quanto o treinamento desses modelos. Em ambientes de produção, fatores como latência, custo do tráfego e localização dos dados ganham destaque, superando as métricas de desempenho tradicionais.
Para abordar esses desafios, a proposta da Akamai é revolucionária: transformar o planeta em um backplane de baixa latência. Ao invés de centralizar a execução em regiões extensas, a empresa planeja uma plataforma integrada que direciona as cargas de inferência para recursos computacionais otimizados em sua infraestrutura distribuída.
Além da latência — um desafio crítico para respostas que exigem quase tempo real — a transferência de dados também se torna um ponto nevrálgico. O movimento de dados entre centros de dados centralizados pode incorrer em custos elevados, especialmente com volumes grandes ou requisitos de soberania de dados.
Akamai cita um dado chamativo de uma pesquisa da MIT Technology Review, que indica que 56% das organizações identificam a latência como o principal obstáculo para a implementação de IA em larga escala. Portanto, a empresa se posiciona como um “sistema nervoso descentralizado”, facilitando a transição de modelos do laboratório para o mundo real, onde os dados estão localizados e o retorno sobre investimento (ROI) é calculado.
No que diz respeito à implementação, a Akamai não divulgou o número exato de aceleradoras adquiridas, mas enfatizou que se trata de “milhares”. A plataforma será projetada para atender diversas fases do ciclo de vida dos modelos de IA, incluindo:
– Inferência de alto desempenho, executada em clusters dedicados de GPUs para respostas rápidas.
– Otimização de modelos próximos aos dados (fine-tuning localizado) para atender a requisitos de privacidade e conformidade regional.
– Adaptação de modelos fundacionais com dados proprietários, melhorando a precisão em tarefas específicas.
A combinação técnica proposta envolve servidores NVIDIA RTX PRO com a edição Blackwell, juntamente com DPUs NVIDIA BlueField-3, integradas na nuvem distribuída da Akamai.
A empresa ressalta sua vantagem competitiva com sua extensa rede global de mais de 4.400 localidades, que permite uma capilaridade difícil de ser igualada por provedores de hiperescala. A Akamai está em uma transição estratégica de “CDN + segurança” para “nuvem distribuída”, seguindo a aquisição da Linode por aproximadamente 900 milhões de dólares em 2022, o que solidificou sua base de computação.
Agora, a Akamai argumenta que o verdadeiro avanço na IA não será apenas ter modelos de alta qualidade, mas sim garantir que esses modelos funcionem em ambientes reais com latência mínima e custos previsíveis. Sua plataforma se configura como uma rede global otimizada para inferência.
Com essa nova abordagem, a Akamai não compete apenas pela posse de GPUs, mas se estabelece como uma alternativa para a inferência distribuída em larga escala, com um foco claro em proximidade e conformidade. Se essa estratégia se concretizar, poderá sinalizar uma mudança significativa na forma como a IA é percebida e aplicada, onde a infraestrutura desempenha um papel central.






