• About
  • Advertise
  • Careers
  • Contact
Segunda-feira, 9 Fevereiro 2026
  • Iniciar sessão
Sem resultados
Ver todos os resultados
Noticias Portugal
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
Sem resultados
Ver todos os resultados
Noticias Portugal
Sem resultados
Ver todos os resultados
início da web Tecnologia

UC San Diego reforça sua pesquisa em inferência de LLM com um sistema NVIDIA DGX B200

por Notícias Tecnologia
22/12/2025
em Tecnologia
0
0
ACÇÕES
5
VISTAS
Share on FacebookShare on Twitter

A corrida pela inferência eficiente é intensa nas universidades

O laboratório Hao AI da Universidade da Califórnia, San Diego (UC San Diego) tem se destacado na vanguarda da inferência de modelos de linguagem, ao incorporar um sistema NVIDIA DGX B200. Essa nova infraestrutura tem como objetivo acelerar a produção e a operacionalização de grandes modelos de linguagem, uma questão cada vez mais crítica no desenvolvimento de tecnologias que exigem baixa latência.

O movimento vai além da simples adição de hardware à pesquisa acadêmica. Os conceitos desenvolvidos no Hao AI Lab têm tido um impacto significativo em soluções de inferência em produção, influenciando práticas que melhoram a eficiência sem comprometer a experiência do usuário. A NVIDIA enfatiza que iniciativas como DistServe, que se concentram em equilibrar a carga de trabalho de maneira eficiente, são diretrizes fundamentais emergentes dessa pesquisa.

Historicamente, a comparação entre motores de inferência era dominada pela métrica de throughput, que mediu a quantidade de tokens por segundo que o sistema poderia gerar. Contudo, essa métrica não reflete a experiência do usuário em tempo real. Para atender às exigências de latência mais baixas, os pesquisadores propõem a adoção do “goodput”, que considera o desempenho útil em relação a metas de latência específicas.

A nova abordagem arquitetônica do Hao AI Lab separa os processos de pré-preenchimento (prefill) e decodificação (decode) em diferentes grupos de GPUs, minimizando a concorrência por recursos. Essa disagregação, como é chamada, permite que o sistema opere de forma mais eficiente, maximizando o goodput e garantindo uma experiência de usuário consistente.

O sistema DGX B200 não é apenas uma melhoria em termos de hardware, mas representa uma capacidade de prototipagem e experimentação muito mais ágil em comparação com as gerações anteriores de equipamento. Com uma configuração robusta, incluindo 1.440 GB de memória total em GPU e interconexão de alta velocidade, o DGX B200 é projetado para atender às demandas críticas de memória e comunicação em ambientes de inferência.

Além disso, a chegada do DGX B200 auxilia em projetos inovadores, como o FastVideo, que visa treinar modelos para gerar vídeos em tempo real com um tempo de resposta igual ao tempo de espera do usuário. Outro projeto, o Lmgame-bench, utiliza jogos populares como Tetris e Super Mario Bros para testar modelos em cenários que exigem tomada de decisões rápidas e adaptação a estados variados, simulando condições que os agentes enfrentarão em aplicações reais.

Este desenvolvimento reflete uma tendência crescente: a inferência está se consolidando como uma disciplina própria, com métricas e arquiteturas que buscam garantir latência baixa sem acarretar custos astronômicos. Para o setor, essa transformação sinaliza que a vantagem competitiva não virá apenas de modelos de treinamento maiores, mas da habilidade de servir esses modelos com eficácia e controle sobre a experiência do usuário.

Tags: B200DGXDiegoinferênciaLLMNVIDIAPesquisaReforçaSanSistemaSua
Notícias Tecnologia

Notícias Tecnologia

Related Posts

Cohesity e Google Cloud levam o “sandbox” ao ponto de recuperação para caçar malware oculto nos backups

por Notícias Tecnologia
09/02/2026
0

Cohesity Lança Novas Funcionalidades para Aumentar a Segurança em Backups No dia 5 de fevereiro de 2026, a Cohesity anunciou...

OpenCode: o agente de programação em terminal que quer devolver o controle ao desenvolvedor

por Notícias Tecnologia
09/02/2026
0

Nos últimos anos, a "assistência com Inteligência Artificial" na programação tem sido vista como um jogo de equilíbrio: mais velocidade...

Iberdrola e Echelon aceleram o “modelo hiperescala” em Madrid: terra, rede elétrica e prazos como vantagem competitiva

por Notícias Tecnologia
09/02/2026
0

A corrida europeia para atrair centros de dados de hiperescala está se definindo por fatores que vão muito além do...

Recommended

Kayak: Descubra Por Que 2025 Será o Ano da Temporada Média para Viajar

5 meses atrás

Os operadores móveis representam 85% do investimento em infraestruturas de internet móvel.

11 meses atrás

Popular News

  • IPMA Revela Novos Dados Meteorológicos: Impactos e Tendências para os Próximos Meses

    0 shares
    Share 0 Tweet 0
  • Seguro: O Presidente Mais Votado de Todos os Tempos

    0 shares
    Share 0 Tweet 0
  • Cohesity e Google Cloud levam o “sandbox” ao ponto de recuperação para caçar malware oculto nos backups

    0 shares
    Share 0 Tweet 0
  • Confiança Empresarial se Reestabelece Segundo o Barômetro CEDEC 2026: Um Crescimento Prudente à Vista

    0 shares
    Share 0 Tweet 0
  • O português André Ventura triunfa na derrota

    0 shares
    Share 0 Tweet 0

Connect with us

  • About
  • Advertise
  • Careers
  • Contact

© 2025 Noticias Portugal

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Sem resultados
Ver todos os resultados
  • Home
  • Internacional
  • Economia
  • Viagens
  • Deporto
  • Sociedade
  • Tecnologia
  • Receitas

© 2025 Noticias Portugal