A Intel avança na corrida pela inteligência artificial empresarial com o lançamento da LLM Scaler v1.0, a primeira grande atualização do software do Project Battlematrix. Essa nova versão promete melhorias de desempenho de até 80%, além de otimizações para modelos de linguagem de grande escala (LLMs), suporte ampliado à IA multimodal e novas ferramentas de gestão empresarial.
Apresentado no Computex 2025, o Project Battlematrix é uma solução integrada para inferência em estações de trabalho e ambientes multi-GPU baseados na arquitetura Intel Arc Pro. A companhia se comprometeu a disponibilizar um contêiner “Inference Optimized” no terceiro trimestre, e agora, com a LLM Scaler v1.0, essa meta foi alcançada.
Entre as novas funcionalidades, destacam-se:
- Escalado multi-GPU otimizado para ambientes exigentes.
- Transferências PCIe P2P, que reduzem a latência.
- Recursos de confiabilidade como ECC e SR-IOV.
O novo contêiner, otimizado para Linux, apresenta melhorias significativas:
- Aceleração de TPOP para sequências longas, aumentando o desempenho em modelos de 70B em até 4,2x.
- Redução do consumo de memória de GPU com quantização em linha.
A Intel espera que a LLM Scaler v1.0 revolucione o cenário corporativo, tornando Project Battlematrix uma alternativa viável a soluções de alto custo, como as GPUs NVIDIA H100 e AMD Instinct MI300, especialmente para centros de dados e laboratórios de pesquisa.
A trajetória de implementação do Project Battlematrix inclui três fases, culminando na versão completa prevista para o Q4 de 2025. Com foco na gestão e otimização, a Intel visa estabelecer o LLM Scaler como um componente central de um ecossistema aberto, capaz de escalar soluções de IA de forma modular, atendendo a diversas demandas empresariais.