Nos EUA, o Impulsionamento da IA Generativa como Infraestrutura de Defesa
A inteligência artificial generativa (IA) deixou de ser um mero experimento no Departamento de Defesa dos Estados Unidos, transformando-se em uma infraestrutura essencial. Em um curto espaço de tempo, a administração militar passou de iniciativas limitadas para um cenário de multi-fornecedores, onde diversos modelos comerciais disputam essa nova realidade. O objetivo principal é a integração em redes não classificadas e, mais criticamente, a inserção em sistemas classificados.
Este avanço acontece em meio a uma tensão que vai além da tecnologia. O Pentágono tem pressionado as empresas a aceitarem um princípio abrangente: a disponibilidade dos modelos para “todos os usos legais”. Em resposta, a indústria apresenta linhas vermelhas variáveis sobre vigilância, uso de dados e autonomia letal. O embate com a empresa Anthropic, que resultou na designação de “risco para a cadeia de suprimentos”, é um exemplo claro dessa nova fase.
Para entender a complexidade do atual cenário, convém separar dois planos de implantação: o ambiente não classificado, representado pela plataforma GenAI.mil, e a disputa por sistemas classificados. O GenAI.mil, com a sólida presença do ChatGPT da OpenAI, foi projetado para trabalho não confidencial, com ênfase na segurança e privacidade dos dados. Por outro lado, o acesso ao ambiente classificado é muito mais restrito, com exigências técnicas e procedimentais mais rigorosas. Modelos como Claude, da Anthropic, têm sido predominantemente integrados a fluxos sensíveis, embora o Pentágono busque expandir suas opções com outros fornecedores.
Recentemente, o Departamento de Defesa dos EUA alocou contratos que totalizam até 200 milhões de dólares para laboratórios como Anthropic, OpenAI, Google e xAI, visando acelerar a adoção de “IA de fronteira” e melhorar a eficiência em seu ecossistema. Os modelos disponíveis refletem essa realidade. O Claude é destacado por sua eficácia em tarefas sensíveis, mas enfrenta fricções devido à sua negativa em flexibilizar limites em contextos de vigilância e uso militar. Por sua vez, o ChatGPT se destaca em GenAI.mil para tarefas administrativas, enquanto o Gemini, da Google, e o Grok, da xAI, estão criando espaço, mas com perguntas ainda em aberto sobre sua eficácia em sistemas críticos.
O conflito central girou em torno do caso Claude, onde o Pentágono exigiu que a IA fosse liberada para todos os usos legais. Após semanas de debates, a resposta da Anthropic resultou em um alerta e uma retirada gradual de seu modelo de certos fluxos de trabalho. A dificuldade de substituição é elevada, dado que migrar para um novo modelo implica revalidar procedimentos que vão além da simples troca de API.
Enquanto isso, a OpenAI continua sua integração em GenAI.mil, oferecendo uma solução personalizada do ChatGPT para necessidades não classificadas, com a promessa de um ambiente seguro e a separação dos dados.
No que se refere a Google e xAI, ambos estão se consolidando, mas a questão sobre sua capacidade de substituir modelos já estabelecidos, como o Claude, persiste, especialmente em operações de alta sensibilidade e segurança.
Por fim, a pergunta que se impõe é: será que a IA generativa funcionará como um modelo “para todos” ou haverá limites negociados, refletindo a tensão entre a necessidade de controle por parte do governo e as preocupações das empresas sobre os possíveis abusos dessa tecnologia? O que está em jogo não é apenas qual modelo se mostra superior, mas quem deve definir os limites da segurança em um cenário onde o cliente detém o maior poder no ecossistema.






