A DeepSeek anunciou a integração do modelo DeepSeek-R1 na fase preliminar do Snowflake Cortex AI. Desenvolvido pela própria empresa, o DeepSeek-R1 foi treinado por meio de aprendizado por reforço em larga escala, sem a necessidade de ajuste fino supervisionado, posicionando-se como um forte concorrente ao OpenAI-o1 em áreas críticas como matemática, geração de código e raciocínio.
De acordo com testes de desempenho divulgados pela DeepSeek, o modelo destaca-se entre as soluções de código aberto, competindo diretamente com algumas das mais avançadas opções de código fechado disponíveis no mercado. Durante esta fase inicial, os clientes têm a oportunidade de solicitar acesso antecipado ao DeepSeek-R1 no Cortex AI, com ênfase em proporcionar uma experiência que reflita os princípios de facilidade, eficiência e confiança.
O modelo funcionará em modo sem servidor, permitindo inferências em lotes, via funcionalidade SQL, e interativas, através de Python e REST API. Para o acesso à prévia, os interessados devem contatar a equipe de vendas da empresa, sendo que a disponibilidade do modelo será restrita à conta que fizer a solicitação. O DeepSeek-R1 será hospedado nos Estados Unidos, dentro do ambiente de serviços da Snowflake, sem compartilhamento de dados com o fornecedor do modelo.
Uma vez liberado para uso geral, os clientes poderão gerenciar o acesso ao modelo via controle de acesso baseado em funções, permitindo que administradores restrinjam o uso conforme as políticas de governança estabelecidas.
O Snowflake Cortex AI oferece um conjunto de funcionalidades que inclui inferência LLM totalmente gerenciada, ajuste fino e recuperação aumentada generativa (RAG) para dados estruturados e não estruturados. Isso possibilita que os clientes analisem dados não estruturados em conjunto com dados estruturados, acelerando o desenvolvimento de aplicações de inteligência artificial. A plataforma adota suporte para vários modelos de código aberto, permitindo integração fácil em fluxos de trabalho.
O modelo DeepSeek-R1, de acordo com informações disponíveis no GitHub, aplicou aprendizado por reforço diretamente ao modelo base, sem depender de ajustes preliminares. Isso permitiu que o modelo explorasse a cadeia de raciocínio para resolver problemas complexos. O time de desenvolvimento também trabalhou para resolver desafios iniciais, como repetição sem fim e legibilidade, incorporando dados de arranque em frio antes do processo de RL.
Além disso, a implementação de treinamento em baixa precisão e uma estratégia de balanceamento de carga sem perda auxiliar contribuiu para o desempenho avançado do modelo, mantendo os custos computacionais de treinamento reduzidos.
Com o Snowflake Cortex AI, a utilização de grandes modelos linguísticos fica simplificada, eliminando complicações de integrações e chaves de API. As funcionalidades de governança são aplicáveis de forma coesa a dados e inteligência artificial, permitindo o acesso a modelos em diversas regiões e filtrando respostas inadequadas com o Cortex Guard.
Este lançamento representa um avanço significativo no campo dos modelos de código aberto, evidenciando que as capacidades de raciocínio dos LLM podem ser impulsionadas exclusivamente através do aprendizado por reforço. O time de pesquisa em IA da Snowflake está comprometido em aprimorar o DeepSeek-R1, visando a redução ainda maior dos custos de inferência, promovendo eficácias no desempenho e no custo ao acelerar a entrega de aplicações de IA generativa.