• About
  • Advertise
  • Careers
  • Contact
Segunda-feira, 22 Dezembro 2025
  • Iniciar sessão
Sem resultados
Ver todos os resultados
Noticias Portugal
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
Sem resultados
Ver todos os resultados
Noticias Portugal
Sem resultados
Ver todos os resultados
início da web Tecnologia

UC San Diego reforça sua pesquisa em inferência de LLM com um sistema NVIDIA DGX B200

por Notícias Tecnologia
22/12/2025
em Tecnologia
0
0
ACÇÕES
2
VISTAS
Share on FacebookShare on Twitter

A corrida pela inferência eficiente é intensa nas universidades

O laboratório Hao AI da Universidade da Califórnia, San Diego (UC San Diego) tem se destacado na vanguarda da inferência de modelos de linguagem, ao incorporar um sistema NVIDIA DGX B200. Essa nova infraestrutura tem como objetivo acelerar a produção e a operacionalização de grandes modelos de linguagem, uma questão cada vez mais crítica no desenvolvimento de tecnologias que exigem baixa latência.

O movimento vai além da simples adição de hardware à pesquisa acadêmica. Os conceitos desenvolvidos no Hao AI Lab têm tido um impacto significativo em soluções de inferência em produção, influenciando práticas que melhoram a eficiência sem comprometer a experiência do usuário. A NVIDIA enfatiza que iniciativas como DistServe, que se concentram em equilibrar a carga de trabalho de maneira eficiente, são diretrizes fundamentais emergentes dessa pesquisa.

Historicamente, a comparação entre motores de inferência era dominada pela métrica de throughput, que mediu a quantidade de tokens por segundo que o sistema poderia gerar. Contudo, essa métrica não reflete a experiência do usuário em tempo real. Para atender às exigências de latência mais baixas, os pesquisadores propõem a adoção do “goodput”, que considera o desempenho útil em relação a metas de latência específicas.

A nova abordagem arquitetônica do Hao AI Lab separa os processos de pré-preenchimento (prefill) e decodificação (decode) em diferentes grupos de GPUs, minimizando a concorrência por recursos. Essa disagregação, como é chamada, permite que o sistema opere de forma mais eficiente, maximizando o goodput e garantindo uma experiência de usuário consistente.

O sistema DGX B200 não é apenas uma melhoria em termos de hardware, mas representa uma capacidade de prototipagem e experimentação muito mais ágil em comparação com as gerações anteriores de equipamento. Com uma configuração robusta, incluindo 1.440 GB de memória total em GPU e interconexão de alta velocidade, o DGX B200 é projetado para atender às demandas críticas de memória e comunicação em ambientes de inferência.

Além disso, a chegada do DGX B200 auxilia em projetos inovadores, como o FastVideo, que visa treinar modelos para gerar vídeos em tempo real com um tempo de resposta igual ao tempo de espera do usuário. Outro projeto, o Lmgame-bench, utiliza jogos populares como Tetris e Super Mario Bros para testar modelos em cenários que exigem tomada de decisões rápidas e adaptação a estados variados, simulando condições que os agentes enfrentarão em aplicações reais.

Este desenvolvimento reflete uma tendência crescente: a inferência está se consolidando como uma disciplina própria, com métricas e arquiteturas que buscam garantir latência baixa sem acarretar custos astronômicos. Para o setor, essa transformação sinaliza que a vantagem competitiva não virá apenas de modelos de treinamento maiores, mas da habilidade de servir esses modelos com eficácia e controle sobre a experiência do usuário.

Tags: B200DGXDiegoinferênciaLLMNVIDIAPesquisaReforçaSanSistemaSua
Notícias Tecnologia

Notícias Tecnologia

Related Posts

Megaport acelera sua entrada na Índia com a compra da Extreme IX, o maior operador de pontos de troca de Internet do país

por Notícias Tecnologia
22/12/2025
0

Megaport adquire Extreme IX e acelera expansão na Índia Megaport, uma das líderes globais em Network as a Service (NaaS),...

Coursera e Udemy se fundem em um acordo de ações para criar um gigante global de ‘skills’ na era da IA

por Notícias Tecnologia
21/12/2025
0

Coursera e Udemy anunciam fusão ambiciosa para dominar o mercado de educação online Em uma jogada estratégica, as plataformas de...

A IA aumenta a superfície de ataque na nuvem: 99% das organizações já sofreram incidentes contra seus sistemas de IA, segundo a Palo Alto Networks

por Notícias Tecnologia
21/12/2025
0

A adoção acelerada de Inteligência Artificial (IA) em ambientes empresariais está criando uma nova fase de risco na nuvem. A...

Recommended

Trend Micro redefine a cibersegurança proativa com gêmeos digitais impulsionados por IA agente e NVIDIA

5 meses atrás

Profissionais alertam para a necessidade de extrema precaução

10 meses atrás

Popular News

  • Megaport acelera sua entrada na Índia com a compra da Extreme IX, o maior operador de pontos de troca de Internet do país

    0 shares
    Share 0 Tweet 0
  • Artesãos Ganham Espaço de Destaque em Lojas Históricas do Porto

    0 shares
    Share 0 Tweet 0
  • UC San Diego reforça sua pesquisa em inferência de LLM com um sistema NVIDIA DGX B200

    0 shares
    Share 0 Tweet 0
  • U.Porto Celebra 2025 com um ‘Retiro’ de Felicidade

    0 shares
    Share 0 Tweet 0
  • Coursera e Udemy se fundem em um acordo de ações para criar um gigante global de ‘skills’ na era da IA

    0 shares
    Share 0 Tweet 0

Connect with us

  • About
  • Advertise
  • Careers
  • Contact

© 2025 Noticias Portugal

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Sem resultados
Ver todos os resultados
  • Home
  • Internacional
  • Economia
  • Viagens
  • Deporto
  • Sociedade
  • Tecnologia
  • Receitas

© 2025 Noticias Portugal