• About
  • Advertise
  • Careers
  • Contact
Terça-feira, 30 Dezembro 2025
  • Iniciar sessão
Sem resultados
Ver todos os resultados
Noticias Portugal
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
Sem resultados
Ver todos os resultados
Noticias Portugal
Sem resultados
Ver todos os resultados
início da web Tecnologia

NVIDIA redesenha a inferência com Rubin CPX: menos HBM, mais economia de contexto

por Notícias Tecnologia
30/12/2025
em Tecnologia
0
0
ACÇÕES
0
VISTAS
Share on FacebookShare on Twitter

Nos últimos dias, um debate tem circulado nas redes sociais, afirmando que a NVIDIA “admitiu” que sua arquitetura de chip para Inteligência Artificial está “quebrada”, uma vez que lançou um novo modelo que utiliza memória GDDR em vez de HBM. Embora a frase possa soar como um título perfeito para atrair cliques, a realidade é muito mais complexa e interessante. A NVIDIA está, na verdade, respondendo a uma mudança significativa na forma como a Inteligência Artificial é consumida na produção, onde a enfase não está mais apenas no treinamento de modelos, mas também em servi-los de maneira eficiente, especialmente quando lidamos com grandes volumes de dados.

Nesse contexto surge o Rubin CPX, um acelerador projetado especificamente para intensificar o processamento do contexto na inferência de IA. Em vez de tentar ser um “chip para tudo”, a proposta da NVIDIA é separar as fases do processo e, consequentemente, os custos relacionados. O Rubin CPX é direcionado a cenários de inferência que requerem a leitura de grandes quantidades de informações antes de gerar respostas, como documentos longos, históricos de dados ou códigos complexos.

Esse novo chip se integra à plataforma Vera Rubin NVL144 da NVIDIA, que contém aceleradores projetados para diferentes necessidades de inferência, com um foco constante em eficiência. A abordagem “separar fases” é uma resposta à constatação de que os fluxos de trabalho que envolvem a IA estão se tornando mais distintos e que a separação das fases de pré-processamento e geração pode oferecer vantagens de custo significativas.

O motor por trás dessa mudança é o crescimento da Inteligência Artificial em produção, que frequentemente opera com contextos mais longos. Com isso, as duas etapas envolvidas, o prefill (processamento do contexto) e o decode (geração de resposta), não podem mais ser tratadas da mesma forma. A NVIDIA reconhece que certas operações se beneficiam de uma abordagem distinta, refletindo uma adaptação do hardware às novas demandas do mercado.

É importante destacar que a separação de fases traz consigo grandes desafios técnicos, como a necessidade de mover e coordenar o estado entre diferentes nodos do sistema, o que pode gerar latências se não for bem executado. A NVIDIA já começou a trabalhar em soluções com o Dynamo, uma camada de orquestração para escalar a inferência e otimizar a transferência de dados entre diferentes etapas.

Além disso, a pressão concorrencial no setor também é crescente, com grandes provedores de nuvem como Google e AWS desenvolvendo seus próprios chips, como TPUs e Trainium, para reduzir a dependência de terceiros e atender melhor às suas necessidades específicas na área de IA. O mercado está claramente se movendo em direção a um modelo em que as empresas exigem eficiência e opções personalizadas.

Em resumo, a NVIDIA não está “admitindo” uma falha em sua abordagem anterior; em vez disso, está reconhecendo a evolução das necessidades do mercado e adaptando suas soluções. Com o Rubin CPX, a NVIDIA pretende atender a uma nova realidade em que o processamento de contexto e a geração de resposta exigem recursos separados e otimizados, refletindo uma mudança significativa no paradigma de inferência de IA.

Tags: ContextoCPXEconomiaHBMinferênciamaismenosNVIDIAredesenhaRubin
Notícias Tecnologia

Notícias Tecnologia

Related Posts

Intel vs AMD em 2025: a batalha x86 continua… mas a ARM já se sentou à mesa

por Notícias Tecnologia
30/12/2025
0

Em 2025, o mercado de processadores se apresenta em um cenário dinâmico e multifacetado, onde a tradicional rivalidade entre Intel...

DNP e Canon agitam o tabuleiro da litografia: um template “1,4 nm” que promete reduzir custos energéticos… sem garantias de adoção

por Notícias Tecnologia
30/12/2025
0

Dai Nippon Printing (DNP) inova com nanoimpressão na fabricação de chips A corrida para o desenvolvimento dos nós mais avançados...

Concurso Inova Defesa: 1,2 M€ para Projetos de Pesquisa em Defesa Nacional

por Notícias Tecnologia
30/12/2025
0

A Fundação para a Ciência e a Tecnologia (FCT) e o Instituto da Defesa Nacional (IDN) anunciam o lançamento do...

Recommended

NVIDIA apresenta Blackwell Ultra: a plataforma que impulsiona a era da IA com raciocínio avançado

10 meses atrás

IPMA: Atualizações e Previsões Climáticas para os Próximos Dias

6 meses atrás

Popular News

  • Infância em Perigo: Aumento Alarmante da Violência Sexual contra Crianças na República Democrática do Congo

    0 shares
    Share 0 Tweet 0
  • Mezan anuncia aquisição de centro de dados em Covilhã

    0 shares
    Share 0 Tweet 0
  • NVIDIA redesenha a inferência com Rubin CPX: menos HBM, mais economia de contexto

    0 shares
    Share 0 Tweet 0
  • Bis: Reflexões e Momentos Marcantes na Despedida de 2025

    0 shares
    Share 0 Tweet 0
  • Intel vs AMD em 2025: a batalha x86 continua… mas a ARM já se sentou à mesa

    0 shares
    Share 0 Tweet 0

Connect with us

  • About
  • Advertise
  • Careers
  • Contact

© 2025 Noticias Portugal

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Sem resultados
Ver todos os resultados
  • Home
  • Internacional
  • Economia
  • Viagens
  • Deporto
  • Sociedade
  • Tecnologia
  • Receitas

© 2025 Noticias Portugal