• About
  • Advertise
  • Careers
  • Contact
Quinta-feira, 26 Fevereiro 2026
  • Iniciar sessão
Sem resultados
Ver todos os resultados
Noticias Portugal
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
Sem resultados
Ver todos os resultados
Noticias Portugal
Sem resultados
Ver todos os resultados
início da web Tecnologia

NVIDIA redesenha a inferência com Rubin CPX: menos HBM, mais economia de contexto

por Notícias Tecnologia
30/12/2025
em Tecnologia
0
0
ACÇÕES
8
VISTAS
Share on FacebookShare on Twitter

Nos últimos dias, um debate tem circulado nas redes sociais, afirmando que a NVIDIA “admitiu” que sua arquitetura de chip para Inteligência Artificial está “quebrada”, uma vez que lançou um novo modelo que utiliza memória GDDR em vez de HBM. Embora a frase possa soar como um título perfeito para atrair cliques, a realidade é muito mais complexa e interessante. A NVIDIA está, na verdade, respondendo a uma mudança significativa na forma como a Inteligência Artificial é consumida na produção, onde a enfase não está mais apenas no treinamento de modelos, mas também em servi-los de maneira eficiente, especialmente quando lidamos com grandes volumes de dados.

Nesse contexto surge o Rubin CPX, um acelerador projetado especificamente para intensificar o processamento do contexto na inferência de IA. Em vez de tentar ser um “chip para tudo”, a proposta da NVIDIA é separar as fases do processo e, consequentemente, os custos relacionados. O Rubin CPX é direcionado a cenários de inferência que requerem a leitura de grandes quantidades de informações antes de gerar respostas, como documentos longos, históricos de dados ou códigos complexos.

Esse novo chip se integra à plataforma Vera Rubin NVL144 da NVIDIA, que contém aceleradores projetados para diferentes necessidades de inferência, com um foco constante em eficiência. A abordagem “separar fases” é uma resposta à constatação de que os fluxos de trabalho que envolvem a IA estão se tornando mais distintos e que a separação das fases de pré-processamento e geração pode oferecer vantagens de custo significativas.

O motor por trás dessa mudança é o crescimento da Inteligência Artificial em produção, que frequentemente opera com contextos mais longos. Com isso, as duas etapas envolvidas, o prefill (processamento do contexto) e o decode (geração de resposta), não podem mais ser tratadas da mesma forma. A NVIDIA reconhece que certas operações se beneficiam de uma abordagem distinta, refletindo uma adaptação do hardware às novas demandas do mercado.

É importante destacar que a separação de fases traz consigo grandes desafios técnicos, como a necessidade de mover e coordenar o estado entre diferentes nodos do sistema, o que pode gerar latências se não for bem executado. A NVIDIA já começou a trabalhar em soluções com o Dynamo, uma camada de orquestração para escalar a inferência e otimizar a transferência de dados entre diferentes etapas.

Além disso, a pressão concorrencial no setor também é crescente, com grandes provedores de nuvem como Google e AWS desenvolvendo seus próprios chips, como TPUs e Trainium, para reduzir a dependência de terceiros e atender melhor às suas necessidades específicas na área de IA. O mercado está claramente se movendo em direção a um modelo em que as empresas exigem eficiência e opções personalizadas.

Em resumo, a NVIDIA não está “admitindo” uma falha em sua abordagem anterior; em vez disso, está reconhecendo a evolução das necessidades do mercado e adaptando suas soluções. Com o Rubin CPX, a NVIDIA pretende atender a uma nova realidade em que o processamento de contexto e a geração de resposta exigem recursos separados e otimizados, refletindo uma mudança significativa no paradigma de inferência de IA.

Tags: ContextoCPXEconomiaHBMinferênciamaismenosNVIDIAredesenhaRubin
Notícias Tecnologia

Notícias Tecnologia

Related Posts

Backblaze lança B2 Neo para a ascensão “neocloud”: armazenamento de objeto em marca branca, pronto em semanas

por Notícias Tecnologia
25/02/2026
0

A corrida pela Inteligência Artificial não está sendo vencida apenas com GPUs. À medida que plataformas emergentes de computação –...

Como ter uma comunicação mais fluida entre as equipes de trabalho e evitar a comunicação fragmentada?

por Notícias Tecnologia
25/02/2026
0

No contexto atual, a comunicação no ambiente de trabalho enfrenta desafios significativos, com equipes frequentemente alternando entre e-mails e plataformas...

A RAM começa a afrouxar: a DDR5 corrige na Europa e a China esfriou de repente a febre da DDR4

por Notícias Tecnologia
24/02/2026
0

O mercado de memória RAM apresenta sinais de mudança após meses de alta tensão Após meses de tensão quase sem...

Recommended

José Torres da Costa é eleito novo presidente da Ordem dos Médicos do Norte

9 meses atrás

Descubra o JPP: Quem É Filipe Sousa e Seu Papel na Política

9 meses atrás

Popular News

  • Explorando O Novo Andar Modelo em Residências de Alto Padrão

    0 shares
    Share 0 Tweet 0
  • Exportações de Móveis Espanhóis Aumentam 5% e Ultrapassam 3.146 Milhões de Euros em 2025

    0 shares
    Share 0 Tweet 0
  • Familia e Atividade Física: Chaves para a Saúde Mental de Detentos

    0 shares
    Share 0 Tweet 0
  • IKEA Inaugura Nova Loja em Coimbra: Um Novo Destino para o Design e Conforto

    0 shares
    Share 0 Tweet 0
  • Riscos Ocultos da Sobrecarga Digital nas Finanças: Uma Análise de Rodrigo Ramos D’Agostino

    0 shares
    Share 0 Tweet 0

Connect with us

  • About
  • Advertise
  • Careers
  • Contact

© 2025 Noticias Portugal

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Sem resultados
Ver todos os resultados
  • Home
  • Internacional
  • Economia
  • Viagens
  • Deporto
  • Sociedade
  • Tecnologia
  • Receitas

© 2025 Noticias Portugal