A corrida pela implementação de Inteligência Artificial (IA) na produção deixou de ser definida apenas pelo modelo escolhido. A atenção agora se volta para a infraestrutura: os custos para operar um modelo, o consumo energético, a escalabilidade e o nível de controle normativo que uma organização pode garantir. Nesse contexto, a Red Hat, em parceria com a empresa sul-coreana Rebellions, anunciou uma nova proposta: a plataforma Red Hat OpenShift AI “powered by Rebellions NPUs”, uma solução validada de ponta a ponta que combina o software de inferência da Red Hat com unidades de processamento neural (NPUs) projetadas para executar cargas de trabalho de IA com maior eficiência energética.
O comunicado, divulgado em 10 de dezembro de 2025, de Seul, representa um passo significativo na estratégia da Red Hat de oferecer “qualquer modelo, qualquer acelerador, qualquer nuvem”. A proposta é clara: expandir o leque de arquiteturas além das implementações focadas apenas em GPUs, especialmente num momento em que os projetos de IA corporativa estão saindo do laboratório e enfrentando limitações práticas, como custo, complexidade operacional, disponibilidade de hardware e exigências regulatórias.
Nos últimos doze meses, muitas organizações perceberam que o treinamento é apenas uma parte do desafio. A maior parte do trabalho e do gasto ocorre quando é necessário implementar modelos em aplicações reais, como assistentes internos, automação de processos, análise de documentos, atendimento ao cliente ou busca semântica em repositórios corporativos. Essa fase de inferência requer estabilidade, previsibilidade e eficiência, algo que os ambientes baseados em GPU nem sempre conseguem oferecer de forma otimizada quando o objetivo é escalar com custos controlados.
A colaboração entre a Red Hat e a Rebellions foca exatamente nessa necessidade de “industrializar” a inferência. A argumentação é que os ambientes de GPU, por si só, podem ser insuficientes para encontrar o equilíbrio entre desempenho e eficiência em escala, especialmente em data centers onde a potência disponível por rack, a refrigeração e os custos de energia tornaram-se fatores cruciais.
As NPUs não são um conceito novo, mas estão ganhando destaque com a expansão da IA generativa. A Rebellions defende que sua arquitetura está otimizada para inferência, resultando em melhor eficiência energética em comparação com GPUs tradicionais, impactando diretamente os custos de implementação e operação, tanto em nível de servidor quanto de rack.
A discussão agora não gira apenas em torno de “quantos tokens por segundo” um sistema pode gerar, mas sim sobre quanto custa manter tal desempenho de forma consistente, garantindo a eficiência. Em termos empresariais, essa eficiência se torna um facilitador para a transição de projetos piloto para implementações em larga escala, especialmente quando múltiplas instâncias, redundância e capacidade de crescimento são necessárias.
A proposta conjunta entre a Red Hat e a Rebellions não se trata de uma integração parcial, mas sim de uma solução “integrada e validada” que abrange “hardware até a model serving”. A proposta combina a plataforma Red Hat OpenShift AI para desenvolver, implantar e operar cargas de IA em Kubernetes; a pilha de software da Rebellions, executando de forma nativa sobre OpenShift AI; e um componente essencial para operação: o Rebellions NPU Operator, certificado para Red Hat OpenShift.
O compromisso é reduzir os custos ocultos da IA, que não abrangem apenas o hardware, mas também o tempo de integração e a complexidade de operar diferentes aceleradores em ambientes híbridos. As empresas agora podem implantar a inferência com mais rapidez e suporte alinhado a padrões da plataforma, numa proposta que é fundamental para a transformação digital em setores regulados, como bancos, saúde, indústria e administração pública, onde a movimentação de informações sensíveis para serviços externos nem sempre é viável.
A proposta da Red Hat e Rebellions busca normalizar a heterogeneidade no mercado, promovendo uma IA empresarial que não dependa de uma arquitetura única. Com essa colaboração, a Red Hat almeja se consolidar como a camada que integra diversas soluções, permitindo que GPUs, NPUs e outros aceleradores coexistam de acordo com as demandas de cada organização. A Rebellions, fabricante de chips de IA com sede na Coreia do Sul, tem se destacado em um contexto onde a eficiência energética e a disponibilidade de alternativas aos sistemas baseados em GPU são cada vez mais relevantes em data centers e provedores de serviços.






