OpenAI publicou um novo relatório sobre ameaças emergentes relacionadas ao uso indevido de seus modelos de inteligência artificial. A empresa detalha como atores estatais e cibercriminosos têm tentado aproveitar suas ferramentas para campanhas de desinformação, fraudes financeiras e ataques cibernéticos.
Desinformação: a IA como arma na manipulação global
Um dos principais achados do relatório é o aumento do uso da IA em campanhas de influência política e desinformação nas redes sociais. A OpenAI detectou atores ligados a China e Irã que utilizaram sua tecnologia para gerar artigos, comentários e mensagens de propaganda com narrativas criadas para influenciar a opinião pública.
Em um caso específico, foi descoberto que contas automatizadas usavam o ChatGPT para redigir artigos em espanhol criticando a política externa dos Estados Unidos, que foram publicados em veículos digitais da América Latina. Também foram identificadas tentativas de traduzir e adaptar propaganda em diversos idiomas para maximizar seu impacto global.
A OpenAI assegura que tomou medidas para bloquear e desmantelar esses esforços, além de compartilhar suas descobertas com plataformas como Meta e X (Twitter) para fortalecer a detecção de conteúdos gerados artificialmente.
Fraudes digitais e estelionatos trabalhistas com IA
Outro uso malicioso identificado no relatório envolve esquemas de contratação fraudulentos e estelionatos amorosos. Grupos associados à Coreia do Norte têm utilizado IA para gerar respostas automatizadas em entrevistas de emprego falsas, com o objetivo de infiltrar operativos em empresas tecnológicas ocidentais. Esses ataques buscam obter acesso a informações sensíveis ou gerar receitas para financiar atividades ilícitas do regime norte-coreano.
Em outra operação detectada no Sudeste Asiático, a OpenAI identificou o uso de modelos de linguagem para redigir mensagens persuasivas em estelionatos românticos e fraudes financeiras. As vítimas eram contatadas por redes sociais e, após semanas de interação com perfis falsos, eram induzidas a investir em plataformas fraudulentas de criptomoedas ou forex.
Ciberataques: o uso de IA na automação do hacking
Além da desinformação e fraudes, o relatório da OpenAI revela que certos grupos têm tentado utilizar suas ferramentas para otimizar atividades de ciberataques. Foram identificados atores maliciosos que empregavam IA para gerar códigos maliciosos, depurar exploits e automatizar processos de intrusão em redes. Essas táticas têm sido particularmente preocupantes no caso de grupos ligados a operações de espionagem cibernética na Ásia e no Oriente Médio.
Porém, a OpenAI afirma que reforçou seus sistemas de detecção e restrições de uso, bloqueando milhares de tentativas de uso indevido de seus modelos e colaborando com agências de cibersegurança para mitigar esses riscos.
Resposta da OpenAI e medidas de segurança
A empresa reiterou seu compromisso com a segurança e implementou novas salvaguardas para prevenir o abuso de suas ferramentas. Entre as iniciativas destacam-se:
- Sistemas de detecção melhorados: para identificar padrões de uso indevido em tempo real.
- Colaboração com governos e empresas tecnológicas: para compartilhar informações sobre ameaças emergentes.
- Restrições no acesso a seus modelos: para evitar sua exploração em atividades maliciosas.
“A inteligência artificial possui um enorme potencial para beneficiar a humanidade, mas também devemos estar atentos aos riscos de seu uso indevido. Continuaremos trabalhando para garantir que nossas ferramentas sejam utilizadas de maneira responsável e ética,” afirmou a OpenAI no relatório.
Com essa nova análise, a OpenAI reforça sua postura de transparência e segurança na indústria de inteligência artificial, em um contexto onde o uso dessas tecnologias continua a evoluir rapidamente.