Meta Acelera Desenvolvimentos em Chips Próprios para Inferência de IA
A Meta, empresa mãe do Facebook, decidiu intensificar sua estratégia em relação aos aceleradores de inteligência artificial (IA) com o lançamento da nova família de chips MTIA (Meta Training and Inference Accelerator). A companhia anunciou quatro gerações de suas unidades MTIA — 300, 400, 450 e 500 — com planos de implantação entre 2026 e 2027. O esforço é parte de uma tendência crescente entre grandes provedores de nuvem para reduzir a dependência de uma única arquitetura de GPU, especialmente no campo da inferência de IA.
Em um recente post técnico, a Meta destacou a importância de otimizar os chips especificamente para tarefas de inferência, que diferem das necessidades de treinamento. “A inferência de IA requer chips otimizados de forma distinta”, afirmou a empresa, que já implantou centenas de milhares de chips MTIA em produção, validando-os com modelos internos e em colaboração com grandes modelos de linguagem como o Llama.
A Meta, em conjunção com a Broadcom, enfatizou o aumento no desempenho de suas novas gerações. De acordo com a companhia, desde o MTIA 300 até o MTIA 500, o largura de banda da memória HBM aumentou 4,5 vezes e a capacidade de cálculo multiplicou-se por 25 em menos de dois anos. Já o MTIA 300 está em produção, enquanto as outras gerações estão em diferentes estágios de testes e implantação.
O setor está observando uma mudança significativa, com outras gigantes da tecnologia como Google, AWS e Microsoft também desenvolvendo suas arquiteturas de chips próprios para inferência. Google lançou o Ironwood, um TPU projetado especificamente para a era da inferência, enquanto a AWS apresenta os chips Trainium e Inferentia. A Microsoft, por sua vez, posicionou o Maia 200 como seu novo acelerador para cargas de inferência.
Essa diversificação no uso de hardware é vista como uma resposta à crescente demanda por eficiência na computação da inferência, que se torna cada vez mais crucial à medida que as empresas se concentram em reduzir custos operacionais. Embora a Nvidia continue sendo um jogador central no mercado de GPUs, a tendência aponta para uma maior autonomia entre os grandes provedores de nuvem, que buscam chips customizados para atender às suas necessidades específicas.
A Meta informou também que planejavam um ciclo de desenvolvimento de chips a cada seis meses, utilizando uma arquitetura modular que permite a rápida inserção de novas gerações sem a necessidade de redesenhos completos do ambiente de infraestrutura. A compatibilidade física é fundamental para reduzir os ciclos de desenvolvimento, que no setor costumam levar um a dois anos.
Além disso, a Meta está apostando fortemente em software de código aberto para facilitar a adoção de suas novas soluções MTIA, apresentando um ambiente interoperável que pode convencer outros hiperescalares a desengajar suas operações do ecossistema CUDA da Nvidia.
O papel da Broadcom nesta nova fase também é significativo, uma vez que a empresa está se posicionando como um parceiro estratégico no desenvolvimento de chips personalizados, destacando a importância das alianças no design de silício para as empresas com grande escala de operação e investimento.
As inovações da Meta, portanto, não significam uma diminuição da relevância da Nvidia, mas sim uma evolução do setor que busca diversificação e eficiência em suas operações. A inferência de IA pode se tornar um ponto chave para o futuro do consumo de inteligência artificial nos próximos anos, e as decisões que as grandes empresas tomam agora poderão ter um grande impacto nos rumos dessa tecnologia.






