As ameaças internas continuam a ser um dos maiores desafios para os responsáveis pela cibersegurança, e a recente expansão da inteligência artificial (IA) autônoma eleva significativamente o risco de exposição de dados sensíveis. De acordo com um alerta da empresa Proofpoint, espera-se que os copilotos baseados em IA se tornem fontes de vazamentos de informações ainda mais frequentes do que os próprios funcionários ao longo deste ano.
Com a crescente adoção de agentes inteligentes capazes de interagir com múltiplos sistemas, automatizar tarefas complexas e gerar códigos, o cenário se torna mais complexo. Contudo, se esses sistemas não forem configurados adequadamente, podem ativar processos que expõem informações confidenciais ou enfraquecem os controles de segurança. Além disso, em determinados contextos, o comportamento desses agentes pode ser manipulado para realizar ações não autorizadas.
Os especialistas observam que os programas tradicionais de prevenção a ameaças internas foram desenvolvidos considerando principalmente os riscos associados a pessoas: seus acessos, oportunidades e possíveis motivações. Com a introdução da IA, surge uma nova dimensão de risco. Os pesquisadores da Proofpoint enfatizam que os agentes de IA devem ser vistos como “identidades digitais com privilégios próprios”, exigindo das organizações a gestão de suas permissões, a monitorização de suas atividades e a avaliação de seu impacto na segurança.
Neste novo ambiente, em que humanos e agentes de IA colaboram, os riscos de erros involuntários também aumentam. Ferramentas baseadas em grandes modelos de linguagem, como ChatGPT, Microsoft Copilot e Google Gemini, podem expor acidentalmente informações sensíveis quando os usuários introduzem dados em suas consultas. Ao mesmo tempo, os próprios agentes podem resumir documentos internos ou acessar informações restritas caso limites claros não sejam estabelecidos.
A situação pode se agravar se agentes maliciosos usarem instruções projetadas para manipular sistemas de IA, conseguindo que os agentes revelem processos internos ou executem ações que anteriormente exigiam conhecimentos técnicos especializados.
Além disso, os incidentes relacionados a ameaças internas tendem a aumentar durante períodos de mudanças corporativas, como fusões e aquisições. Nessas situações, o acesso a sistemas em transição e a pressão sobre os funcionários criam um ambiente propício para vazamentos e práticas inadequadas. A inteligência artificial, segundo analistas, pode facilitar ainda mais atividades como espionagem corporativa, permitindo a investigação de concorrentes, a replicação de comunicações legítimas e a ocultação de ações.
Apesar desses riscos, a IA também se destaca como uma ferramenta crucial para aprimorar a segurança. A Proofpoint antecipa que, até 2026, a inteligência artificial terá um papel cada vez mais importante na detecção e análise de incidentes internos, sendo capaz de processar grandes volumes de dados para identificar padrões suspeitos, correlacionar eventos e priorizar ameaças com agilidade.
Essa mudança demandará uma transformação na gestão de riscos, com as organizações integrando em um único enfoque as informações de identidades, comportamentos de usuários e eventos técnicos. Com essa visão unificada, as equipes de segurança poderão agir de forma mais proativa e implementar medidas mais precisas.
Por fim, especialistas ressaltam a importância de estabelecer “normas claras para o uso responsável da inteligência artificial”, incluindo políticas de privacidade, critérios éticos e mecanismos de governança que regulem o funcionamento dos agentes e seu acesso a informações corporativas. Segundo a Proofpoint, a adoção dessas diretrizes será fundamental para mitigar novas ameaças e garantir um ambiente digital seguro, onde humanos e sistemas de IA possam coexistir.






