Nova Memória Modular da NVIDIA Impulsiona Eficiência Energética em IA
A NVIDIA está revolucionando o setor de inteligência artificial com o lançamento de sua nova memória modular baseada em LPDDR. De acordo com a publicação sul-coreana ETNews, a empresa planeja produzir entre 600.000 e 800.000 unidades dos módulos SOCAMM (Smart On-Board Compression Attached Memory Modules) ao longo deste ano, destinados a integrar sua nova geração de plataformas de IA.
Durante o evento GTC da NVIDIA, foram apresentados os módulos SOCAMM, que representam um novo padrão de memória LPDDR de classe data center, desenvolvida inicialmente pela Micron. Essa tecnologia é especialmente projetada para atender às demandas de eficiência energética e alto desempenho em dispositivos de IA. Ao contrário das tradicionais soluções HBM ou LPDDR5X, que normalmente ficam soldadas à placa-mãe, os módulos SOCAMM são intercambiáveis, permitindo que os usuários realizem atualizações futuras com facilidade, utilizando apenas três parafusos.
Um dos primeiros produtos a adotar essa tecnologia é a plataforma GB300 Blackwell, que já ilustra a intenção da NVIDIA de introduzir um novo fator de forma em seus produtos de IA.
Os módulos SOCAMM oferecem vantagens significativas em relação aos RDIMM e LPDDR5X, alcançando velocidades entre 150 e 250 GB/s. Essa alta eficiência energética, junto com seu formato compacto, torna os SOCAMM ideal para PCs e servidores de IA de baixo consumo, permitindo a expansão de memória sem a necessidade de substituir o sistema completo.
Embora as 800.000 unidades projetadas ainda sejam inferiores ao volume de memórias HBM que a NVIDIA recebeu de seus parceiros este ano, uma produção em larga escala é esperada para 2026, com a chegada da segunda geração, SOCAMM 2.
Atualmente, a Micron é o principal fabricante dos módulos SOCAMM para a NVIDIA, mas negociações com a Samsung e a SK Hynix já estão em andamento para expandir a capacidade de produção e fortalecer a cadeia de suprimentos. A tecnologia SOCAMM foi especificamente projetada para atender às novas exigências da infraestrutura de IA, onde cada watt de consumo é crucial.
A adoção dos SOCAMM promete um impacto significativo na forma como os sistemas de computação para IA são projetados e escalados. Com a possibilidade de substituir e aprimorar a memória sem a necessidade de substituir o sistema completo, a NVIDIA está moldando uma nova era de modularidade e sustentabilidade no hardware para inteligência artificial.
Essa tecnologia não apenas se consolidará no ecossistema de produtos da NVIDIA, mas também pode estabelecer um precedente para outras arquiteturas que buscam combinar eficiência energética, desempenho extremo e escalabilidade em ambientes exigentes, como centros de dados e dispositivos edge de IA. Com a evolução do SOCAMM 2 no horizonte e o crescente interesse de outros gigantes da memória, espera-se que o formato modular de baixo consumo se torne essencial para o futuro da computação inteligente.