Um recente relatório da Palo Alto Networks, uma empresa de referência em cibersegurança, alerta que 75% dos projetos de inteligência artificial agêntica em desenvolvimento na Europa representam um risco significativo para a segurança das organizações. O problema não reside na tecnologia em si, mas na falta de governança, controle e supervisão adequados.
O estudo, que se baseia em mais de 3.000 entrevistas com executivos de alto nível de empresas europeias, revela que muitas iniciativas de IA estão sendo implementadas sem uma estratégia clara, sem objetivos definidos e sem critérios de segurança estabelecidos, o que demonstra uma escassa implicação dos conselhos de administração. Segundo a companhia, se não forem tomadas medidas urgentes pela liderança empresarial, a inovação atual pode resultar em uma crise cibernética no futuro.
Para mitigar esses riscos e garantir que a IA agêntica gere valor real e sustentável, a Palo Alto Networks sugere três pilares fundamentais que devem orientar sua adoção responsável e segura.
Pilar 1: Definir e limitar os resultados
O relatório identifica como principal causa de fracasso o fenômeno do “desvio de resultados”, ou seja, projetos de IA lançados sem objetivos empresariais mensuráveis e sem abordagem de risco. De acordo com a Gartner, 40% de todos os projetos serão cancelados até 2027, enquanto o MIT estima que 95% dos programas de IA generativa empresariais já estão fracassando. A situação é ainda mais preocupante sob a perspectiva da cibersegurança, uma vez que apenas 6% das organizações aplicam um marco de segurança avançado para a IA.
Haider Pasha, CISO da EMEA na Palo Alto Networks, explica: “A grande diferença agora é que a IA agêntica não se limita a oferecer respostas, mas executa ações orientadas a resultados concretos”. A empresa recomenda planejar os projetos de agentes de IA a partir de objetivos definidos e aprovados pelo conselho, alinhados aos padrões de segurança e à identidade corporativa.
Pilar 2: Guardrails de segurança desde o design
O relatório enfatiza que a confiança na IA deve ser equilibrada com o controle, aplicando princípios de Zero Trust e um enfoque de segurança centrado na identidade. Os erros mais comuns decorrem de agentes com privilégios excessivos, controles de identidade fracos ou sem limites de acesso definidos.
A Palo Alto Networks destaca que a autonomia dos agentes deve ser conquistada, não concedida desde o primeiro dia. Os sistemas devem ser tratados como funcionários digitais, sujeitos a níveis de confiança progressivos e com auditoria constante. A empresa recomenda:
- Aplicar o modelo Zero Trust em toda a arquitetura.
- Separar privilégios e controlar os subagentes.
- Registrar todas as ações e manter sempre um humano no circuito.
- Adotar um AI Security Framework integral, evitando soluções isoladas.
Atualmente, a relação entre agentes e humanos está em torno de 80 a 1, uma proporção que deve aumentar rapidamente nos próximos anos, forçando as organizações a estabelecer marcos de controle robustos e escaláveis.
Pilar 3: Governança transversal e responsabilidade compartilhada
Por fim, a Palo Alto Networks acredita que os agentes de IA devem ser tratados como uma iniciativa empresarial transversal, e não como um projeto isolado da área de TI. Para garantir seu sucesso, a companhia propõe a criação de um “Conselho de Governança de Agentes”, com representantes das áreas de segurança, risco, jurídico, operações e negócio, além de revisões periódicas a nível de conselho de administração. A empresa recomenda que os conselhos:
- Supervisionem de forma mais rigorosa a integração e os resultados dos projetos.
- Formem-se ativamente sobre as implicações da IA.
- Estabeleçam parcerias com fornecedores tecnológicos de confiança a longo prazo.
- Empoderem os responsáveis para adotar a IA de forma controlada e segura.
Esse modelo de responsabilidade compartilhada reforça a resiliência, garante o cumprimento normativo e assegura que os projetos estejam alinhados com os objetivos estratégicos.


