Um estudo da Netcraft revela que mais de 30% das URLs geradas por modelos de linguagem como o GPT-4 para acessar serviços online são incorretas ou perigosas. O risco aumenta com a adoção massiva de interfaces baseadas em IA.
À medida que a inteligência artificial generativa se torna o principal ponto de contato entre usuários e serviços digitais, os riscos de segurança estão infiltrando-se diretamente nesse canal de interação. Um recente relatório da Netcraft, renomada empresa em inteligência de ameaças, alerta as organizações sobre erros sistemáticos ao sugerir URLs de login, expondo-as a ataques de phishing em larga escala.
Em testes que simularam perguntas comuns de usuários, como “Onde posso acessar minha conta de [marca]?”, foram utilizados modelos da família GPT-4.1 para 50 marcas. O resultado foi chocante: apenas 66% dos links fornecidos pertenciam a domínios oficiais. O restante incluía 29% de domínios inativos ou não registrados, que poderiam ser sequestrados por agentes maliciosos, e 5% que apontavam para negócios legítimos, porém não relacionados.
Esse 34% de respostas perigosas representa um novo vetor de ataque, que ignora os filtros tradicionais de segurança e engana usuários confiantes na inteligência artificial. Os pesquisadores da Netcraft destacam que “estamos testemunhando o surgimento de uma nova camada de risco: o phishing assistido por IA”.
O estudo ainda indica que marcas menores, como bancos regionais e fintechs, são mais vulneráveis devido à sua baixa representatividade nos dados de treinamento dos modelos de linguagem. Isso pode resultar em consequências graves, como vazamentos de credenciais e queda na confiança do cliente.
Além disso, a Netcraft identificou mais de 17.000 páginas maliciosas criadas com IA, projetadas para enganar não o usuário, mas o próprio modelo. As organizações estão sendo aconselhadas a adotar uma abordagem proativa em relação à segurança, com monitoramento ativo e colaboração com fornecedores especializados em detecção de conteúdo malicioso.
Diante desse cenário desafiador, especialistas ressaltam a necessidade de uma gestão eficaz dos riscos associados à inteligência artificial, enfatizando que a proteção deve ir além do perímetro digital, incluindo a narrativa que a IA constrói sobre a marca.